Capitolo 4: Stato attuale e prospettive future

Gli stessi strumenti STM ed AFM progenitori di tutta la categoria degli SPM hanno fatto molta strada dalla loro nascita, e possono essere utilizzati oggi in diverse modalità complementari di quelle originarie, che un tempo non erano state ancora sviluppate o comunque chiaramente diversificate. Inoltre dallo sviluppo di loro varianti più o meno innovative sono nati altri strumenti che consentono oggi di misurare una quantità sempre maggiore di informazioni sui campioni.

4.1 Oltre l'STM base

Cominciamo col vedere nel dettaglio tutte le diverse funzionalità di un moderno STM.

4.1.1 Spettroscopia STM

Chiariamo innanzitutto che cosa intendiamo per spettroscopia. Può essere definita in senso stretto come una disciplina che comporta la determinazione di spettri. In fisica si parla di spettro intendendo un grafico in cui è tracciata una curva sperimentale che rappresenta un determinato comportamento caratteristico del sistema in analisi; ad esempio, gli spettri d'emissione e d'assorbimento della luce da parte dei materiali fluorescenti (vedi paragrafo 2.1.1), o gli spettri sempre d'emissione e assorbimento luminoso dei gas, che consentono di identificare, tramite le particolari frequenze assorbite od emesse, la composizione chimica di questi: in questi grafici sono "plottate" le intensità luminose corrispondenti alle diverse frequenze delle radiazioni coinvolte. In pratica tutte queste informazioni derivano dalle caratteristiche dei livelli elettronici degli atomi, ed è in questo senso che anche la "topografia" apparente STM, ovvero la corrente di tunnel, giacché dipende, oltreché dalla distanza punta-campione, anche dalle caratteristiche elettroniche locali del campione, ha connaturato in sé un forte contenuto di tipo spettroscopico. Non va mai dimenticato comunque che la struttura elettronica locale della superficie di un campione dipende sia dalle specie atomiche di cui è composta sia dall'ambiente chimico locale circostante (problema dei contaminanti).
Questo tipo di informazioni nel caso STM può essere evidenziato tramite specifiche modalità di utilizzo dello strumento. In generale per le tecniche STM spettroscopiche si parla di Scanning Tunneling Spectroscopy, SPS.

4.1.1.1 Misura di dI/dV

Il metodo STM "spettroscopico" più semplice e immediato consiste nel prendere due immagini della stessa zona del campione con polarità (ovvero V) opposte. In tal modo a parità puntuale di topografia (su punti corrispondenti delle due immagini) si evidenziano le strutture prevalentemente corrispondenti agli stati elettronici occupati o vuoti della superficie.
Una variante più complessa e di maggior interesse pratico è quella che è stata anche denominata Current Imaging Tunneling Spectroscopy (CITS). In questa tecnica viene memorizzata un'immagine ordinaria a corrente costante, ma in corrispondenza di ogni punto di campionamento del segnale di corrente (ovvero per ogni pixel dell'immagine ricavata) viene momentaneamente disabilitato il feedback e il Setpoint o Reference Vref (cioè la tensione di polarizzazione) viene fatto variare con una rampa, e si registrano le curve caratteristiche corrente-tensione I-V valide localmente punto per punto sull'immagine. Il risultato, oltre che in termini di immagine ordinaria, viene visualizzato in serie di immagini di tipo I-I0 a valori V-V0, mostrando importanti caratteristiche elettroniche. Inoltre, utilizzando un amplificatore di tipo lock-in, che consente di analizzare segnali di specifiche frequenze, identificati ed "agganciati" (lock) prima della misura, è possibile misurare direttamente in maniera immediata anche un'ulteriore informazione, e cioè le derivate del segnale dI/dV. Gli spettri di questa grandezza (dI/dV), opportunamente normalizzati, forniscono la conducibilità elettrica r del campione (o in maniera equivalente la densità degli stati a energia EFeV, dove EF è l'energia del livello di Fermi, vedi "Introduzione alla Fisica dello Stato Solido", e la carica elettrica dell'elettrone e V la tensione applicata), dipendente dalle condizioni di lavoro tramite la distanza sonda-campione (gap) s (o Z) e la tensione V.

4.1.1.2 Misura di dI/ds (dI/dZ)

Un altro metodo di analisi STM spettroscopica corrisponde a misurare la variazione dI/ds (o dI/dZ). Questo viene realizzato se la punta di scansione, durante un normale tracciato a corrente costante, viene modulata meccanicamente lungo Z ad una frequenza superiore al tempo di reazione del feedback. Ciò equivale a dire che alla tensione DC (Direct Current, corrente continua) di polarizzazione si aggiungere una piccola componente AC (Alternate Current, corrente alternata), di frequenza sufficientemente elevata da non influenzare il sistema di feedback (che sappiamo funzionare un po' come un integratore, rimanendo così insensibile a quella parte del segnale rapidamente variabile). Quindi occorre analizzare la corrente di tunnel IT col solito amplificatore sintonizzato in frequenza e fase (lock-in). Anche questa grandezza IT, "output" dello strumento STM, conterrà infatti a questo punto una modulazione alla frequenza n con cui è pilotata V, tensione di polarizzazione V alla quale opera il feedback, in fase con quest'ultima. La sua ampiezza è la derivata di I rispetto a s (o Z). In questo caso la misura della derivata dI/ds (o dI/dZ) corrisponde a raccogliere profili di funzione lavoro f del campione.
Tali relazioni tra dI/dV o dI/ds (di/dZ) e r (EF) o f rispettivamente, evidenziate in questi ultimi due sottoparagrafi, si possono di fatto dedurre da un'analisi attenta dell'espressione della corrente di tunnel riportata nel paragrafo 2.6.1.

4.1.2 Nuovi metodi di rivelazione STM

Ultimamente è stata osservata la possibilità di utilizzo di un nuovo metodo di rivelazione per STM (applicabile anche alla tecnica STOM) che sembra in grado di fornire un'elevata sensibilità alle variazioni del segnale. Questo metodo si basa sull'effetto tunnel risonante.



Fig. 4.1: schema di interfaccia multipla alla quale si verifica, in particolari condizioni operative (vedi testo) il cosiddetto effetto tunnel risonante.


I primi studi intorno a tale fenomeno risalgono alla fine degli anni '40 in campo ottico, e all'inizio degli anni '70 per quanto riguarda gli elettroni. Il sistema fisico cui si riferisce questo effetto è un'interfaccia multipla, supponiamo composta, ad esempio nel caso ottico, da cinque mezzi materiali diversi, di indici di rifrazione n1, n2, n3, n4 e n5, ordinati in modo tale che sia n3>n1>n2. Studiando i fenomeni di riflessione e trasmissione di una radiazione elettromagnetica incidente su questo sistema, otteniamo per l'intensità dell'onda trasmessa una relazione del tipo:


dove Ri,i+1 è definito come segue:

Ri,i+1 = ri,i+1 e -2i (b1+ b2+ .... + bi), con rij = rji*,

essendo tij e rij i coefficienti di trasmissione e riflessione, rispettivamente, all'interfaccia tra i mezzi i e j, e bi l'incremento di fase della radiazione nel propagarsi attraverso l'i-mo mezzo; con l'asterisco si indica il complesso coniugato, ovvero il numero complesso con parte reale uguale e parte immaginaria opposta, mentre l'i negli esponenziali č il coefficiente dell'immaginario (). Supponiamo che l'onda incidente sull'eterostruttura sia trasversale elettrica (TE), e l'angolo d'incidenza maggiore di quello critico oltre il quale si ha riflessione totale interna (TIR, Total Internal Reflection). In queste condizioni nei mezzi 2 e 3 di indici di rifrazione minori di 1 si ha solo un'onda evanescente. Ma l'equazione per T4 mostra per via analitica un risultato a prima vista sorprendente: se n1=n5, n2=n4 e a=b=c, cioè se in pratica accoppiamo due interfacce triple 1-2-3 e 3-2-1, pur avendo entrambe separatamente trasmittività assai basse, disposte congiuntamente in questo ordine possono presentare alti valori di trasmittività, pari fino a 1 (il valore massimo, il 100%).



Fig. 4.2: schema che illustra l'utilizzo dell'effetto tunnel risonante nella microscopia STOM, e la conseguente maggiore sensibilità del segnale che è possibile ottenere con questo metodo di rivelazione.


L'effetto tunnel risonante può essere utilizzato sia nell'STM che nello STOM operanti a quota costante, come segue. Nella figura precedente "a" è la variazione di topografia del campione (i cui rilievi sono schematizzati in scalini rettangolari) che modula lo spessore del mezzo "aria" interposto, nell'interfaccia multipla, tra i mezzi 1 e 3. In questo modo la trasmittività della struttura (che presenta un massimo in corrispondenza di uno spessore a dello strato di aria pari alla quota "b") viene variata in corrispondenza della sua zona di maggior pendenza (cioè sensibilità). In figura, a fianco dello schema del sistema è riportata, per un confronto, la curva di trasferimento associata all'effetto tunnel ordinario.
L'effetto può inoltre essere utilizzato anche in diverse altre configurazioni del sistema: con il campione posto direttamente sopra il vetrino intermedio (mezzo 3), oppure, nel modo a grandezza (cioè trasmittività) costante, sopra uno specchio, in maniera da sfruttare un mezzo virtuale riflesso che renda a=b punto per punto (seppure in generale a(i,j)a(p,q), dove (i,j) e (p,q) sono i punti corrispondenti).



Fig. 4.3: porre il campione sopra uno specchio equivale a rendere le distanze a e b (definite in Fig. 4.2) uguali punto a punto, e quindi provocare la risonanza della trasmissione.


4.1.2.1 PSTM (o STOM o EFOM)

Un tipo promettente di SPM nato negli ultimi anni presenta caratteristiche del sistema di rivelamento di natura ottica: si tratta del Photon STM (PSTM), altrimenti noto come Scanning Tunneling Optical Microscope (STOM) o Evanescent Field Optical Microscope (EFOM). Questo strumento si basa sull'effetto tunnel ottico, ovvero sulla rivelazione e l'analisi del campo evanescente generato per riflessione totale interna (Total Internal Reflection, TIR) alla superficie di un materiale trasparente. I nomi di STOM e PSTM si riferiscono all'analogia di comportamento tra l'onda evanescente e la corrente di tunnel in un STM.
La figura successiva aiuta a comprendere schematicamente il principio di funzionamento. La TIR si verifica quando un fascio di luce incidente sull'interfaccia tra due materiali di diverso indice di rifrazione, e proveniente dal mezzo più "denso" (cioè con indice di rifrazione maggiore) presenta un angolo di incidenza qi (riferito alla normale alla superficie) maggiore di un certo valore critico qc. In queste condizioni si produce, nel mezzo "denso" in prossimità dell'interfaccia, un campo elettromagnetico detto "evanescente". L'intensità di questo campo decresce esponenzialmente a partire dalla superficie di discontinuità, secondo la legge:


dove k è il modulo del vettore d'onda della luce incidente, z la distanza dall'interfaccia, ni e nt gli indici di rifrazione dei mezzi in cui giacciono il raggio incidente e quello trasmesso virtuale, rispettivamente, (ni>nt).



Fig. 4.4: l'onda evanescente generata per TIR in un PSTM è modulata dalla superficie del campione. In questo caso la sonda è una sottile fibra ottica, "intinta" nel campo evanescente.


Se un oggetto composto di un altro mezzo di indice di rifrazione maggiore di ni viene immerso nel campo evanescente, si verifica, come già detto, una situazione tipica della meccanica quantistica, analoga a quella del tunneling di elettroni attraverso una barriera energetica finita. In questo caso sono i fotoni del fascio incidente che attraversano per effetto tunnel la regione tra campione e punta della sonda (tipicamente una sottile fibra ottica), e sono quindi raccolti da un opportuno sistema di rivelazione. L'onda evanescente, che a distanze opportune riproduce la superficie del campione, viene così convertita in un'onda omogenea che si propaga in direzione Z, a partire dalla cui intensità è ricostruita punto per punto la topografia del campione. Un sistema di feedback del tutto analogo a quelli utilizzati dalle microscopie STM e AFM permette di lavorare a "intensità trasmessa" (e quindi distanza dal campione) costante. Questo però è vero solo ad opportune distanze di lavoro punta-campione, intorno ai 200-250 nm, alle quali la dipendenza esponenziale intensità-quota sia ad un tempo così ripida da permettere una buona sensibilità, senza però alterare troppo la morfologia degli step (scalini) presenti sulla superficie esaminata.
Nei primi prototipi di PSTM realizzati sembrava che la risoluzione laterale dipendesse essenzialmente, come per l'STM, dalle dimensioni dell'estremità della sonda, appuntita in genere con processi di etching fino a raggiungere un diametro di 200 nm circa, il che limitava la risoluzione a valori di questo stesso ordine di grandezza. Studi più recenti hanno invece evidenziato che un modo più semplice di migliorare la risoluzione è utilizzare radiazioni elettromagnetiche di lunghezza d'onda minore di quelle nel visibile, dato che risulta possibile ottenere una risoluzione laterale pari a l/12. Impiegando raggi X deboli si possono così risolvere dettagli su scala del nm. Si tratta di un potere risolutivo che, pur essendo superiore a quello del SEM, rimane inferiore a quello dell'STM. Rispetto alle microscopie ottiche tradizionali il PSTM si propone comunque come un microscopio a superrisoluzione, con in più il vantaggio di offrire immagini tridimensionali. (La risoluzione nella terza direzione Z ortogonale al campione è principalmente limitata dall'elettronica di posizionamento e controllo a 1 nm circa). Anche rispetto alla microscopia STM il PSTM ha però in taluni casi un vantaggio: quello di poter visualizzare superfici di natura dielettrica, e quindi, limitatamente a campioni non opachi (ad esempio film di polimeri e maschere di photoresist, film di Langmuir-Blodgett e campioni biologici, come membrane, filamenti di proteine e film di lipidi, virus e organelli), si può considerare uno strumento promettente per il futuro.

4.1.2.2 SPNM

Lo Scanning Plasmon Near-field Microscope (SPNM) è l'ultimo nato nelle microscopie SPM, essendo stato ideato solo nel '92. Si tratta di uno strumento di natura ottica, discendente in questo dallo SNOM. L'interazione in questo caso è quella tra una sottile punta metallica e i plasmoni presenti alla superficie di un campione parimenti metallico, generati dall'eccitazione prodotta da un fascio laser incidente su di esso, (vedi figura successiva). L'eccitazione di plasmoni alla superficie di un metallo percorso da un'onda elettromagnetica nulla all'interno e all'esterno è un fenomeno sostanzialmente non diverso dall'eccitazione di plasmoni nel bulk di un metallo (vedere "Introduzione alla Fisica dello Stato Solido"), e puņ essere dedotto analiticamente dalle equazioni di Maxwell con opportune condizioni al contorno.



Fig. 4.5: schema di un SPNM: la punta è ottenuta coi consueti processi elettrochimici utilizzati per le punte STM, la luce incidente del laser è accoppiata al modo di oscillazioni del plasma all'interfaccia aria-argento tramite un prisma disposto in un'opportuna configurazione. L'eccitazione dei plasmoni è individuata come corrispondente a un minimo nell'intensità della luce riflessa, e può essere interpretata come un'interferenza distruttiva tra la luce riflessa dalla superficie aria-argento e quella riflessa dalla superficie argento-vetro.


Questo effetto è individuato nel sistema SPNM tramite un minimo nell'intensità della luce riflessa, e può essere inteso come il risultato di un'interferenza distruttiva tra la luce riflessa all'interfaccia campione (argento)-aria e campione-prisma. Il processo può essere interpretato come scattering (diffusione in seguito ad urto) elastico di plasmoni, ovvero trasferimento di energia dalla punta al campione senza che vi sia associato un fenomeno di irraggiamento. La dipendenza della probabilità con cui si verifica questo scattering dalla distanza punta-campione è molto forte, e questo assicura (come avviene nell'STM) una notevole risoluzione laterale. A lunghezze d'onda ottiche la risoluzione è di circa l/200, intorno cioè ai 3 nm. La scansione della punta avviene a distanze dal campione tali che le forze di natura meccanica sono trascurabili, e questo fa della microscopia SPNM una tecnica essenzialmente non-perturbativa, diversamente da STM e AFM.
La punta metallica può comunque essere utilizzata anche come sonda STM, permettendo così di avere a disposizione uno strumento composito che, con l'ulteriore utilizzo accoppiato di un microscopio ottico (peraltro sempre utile in ogni microscopio SPM per il monitoraggio dell'avvicinamento grossolano punta-campione) è in grado di coprire superfici del campione sottoposte ad analisi le cui dimensioni variano di diversi ordini di grandezza (da 1 nm fino a 1 Å).
Questa tecnica si presenta particolarmente promettente per l'analisi e l'identificazione spettroscopica di singole molecole adsorbite.

4.2 Oltre l'AFM base

Anche per l'AFM come per l'STM, partendo dalle tecniche standard, definite nel paragrafo 3.3.3 come modo di contatto (a deflessione e quota costante) e di non contatto (aggiungendo ad esse anche il più moderno Tapping mode), si sono nel corso del tempo sviluppate nuove modalità d'utilizzo, che consentono oggi di ottenere informazioni complementari di varia natura.

4.2.1 Spettroscopia AFM

Si è già detto nel paragrafo 4.1.1 che cosa si possa intendere per spettroscopia in senso stretto. Tuttavia vogliamo qui ampliare questo concetto, non senza qualche doverosa precisazione che ci consenta di salvare la nostra reputazione agli occhi dei puristi della scienza. Allora diremo che anche nell'AFM, benché non siano così specificatamente coinvolti i livelli energetici degli elettroni degli atomi del campione come accade per l'STM, ha senso parlare talvolta di "spettroscopia" in un'accezione più lata e "permissiva". Infatti, così come negli "spettri" risultato della spettroscopia abbiamo dei picchi di intensità di un determinato effetto che, tramite le frequenze sull'asse delle ascisse a cui essi corrispondono, ci permettono di identificare la presenza o meno di determinate specie chimiche, esistono moderne tecniche AFM derivate che consentono una differenziazione fisico-chimica all'interno del vetrino del campione, la quale va ben oltre la grandezza quantitativa standard (topografia) misurata sui campioni con le tecniche AFM classiche.

4.2.1.1 Misura dell'attrito: SFFM

La prima e più semplice informazione con connotazione spettroscopica (ovvero di differenziazione qualitativa fisico-chimica) fornita dall'AFM è stata la realizzazione di immagini di attrito (o forza laterale), informazione derivata dalla configurazione AFM di contatto a deflessione costante con metodo di rivelazione a leva ottica (vedi paragrafi 2.6.2 e 3.3.1) esteso, con modifiche minime (vedi 3.3.4.2). Mostriamo a questo scopo un'ulteriore rappresentazione di come funziona questa estensione del metodo a leva ottica al caso delle fotocelle a quattro quadranti.



Fig. 4.6: la forza laterale (torsione) viene rilevata con fotocelle a quattro quadranti, poiché il fascio laser riflesso dalla cantilever in torsione induce spostamenti sul rivelatore ortogonali a quelli dovuti alla deflessione (vedi discussione al sottoparagrafo
3.3.4.2).


Questo metodo ha permesso la simultanea misurazione, oltreché della deflessione della microleva (associata alla forza verticale), anche del suo movimento di torsione attorno al proprio asse longitudinale, e quindi della forza di attrito, agente lateralmente su di essa (si veda la Fig. 3.20).



Fig. 4.7: un campione dall'aspetto topografico comune (con vari agglomerati tondeggianti o cluster) e omogeneo chimicamente ben illustra il risultato tipico delle immagini di torsione, con le relative immagini di topografia riportate per il confronto con la torsione, ai fini di una migliore comprensione.


Tale implementazione AFM si trova talora espressa, specie in quelle che storicamente furono le prime applicazioni, come Lateral Force Microscopy, ovvero LFM, sigla uguale a quella di un'altra tecnica affine (descritta più avanti), e quindi da noi abbandonata a favore delle equivalenti e più recenti SFM (Scanning Force Microscopy, a volte sinonimo stesso di AFM) e soprattutto la più precisa SFFM (Scanning Friction Force Microscopy).
Vediamo innanzitutto, con riferimento alla figura precedente, di interpretare le quattro immagini diverse che possono essere ricavate immediatamente da un AFM accessoriato ed utilizzato come SFFM, così come esse si presentano senza alcuna elaborazione.
Se il campione è tutto dello stesso materiale, la torsione (o forza laterale) in pratica evidenzia solo i bordi delle strutture topografiche, in quanto la punta (o meglio la parte terminale della leva), idealmente non torta su un piano, risulta comportarsi a seconda della pendenza della superficie, cioè va con la derivata (parziale) della topografia Z rispetto a X, essendo X la direzione di scansione: T µ -Z'(X,Y) = -Z(X,Y)/X. Per pura convenzione assumiamo che i toni di grigio chiaro (fino al massimo del bianco) identifichino una torsione della punta "positiva" (antioraria), e i toni di grigio scuro (fino al minimo del nero) una torsione "negativa" (oraria), così come si fa con la topografia Z (dove alto=chiaro e basso=scuro). Quindi nelle immagini di torsione chiaro significa pendenza Z'(X,Y) negativa e scuro negativa, mentre al centro di zone piatte il segnale è uniformemente piatto. L'effetto complessivo risultante è mostrato chiaramente nella figura precedente (Fig. 4.7).



Fig. 4.8: la nostra definizione convenzionale relativa ai segni della torsione; lo schizzo, seppure elementare, dovrebbe aiutare a comprendere meglio il meccanismo alla base del contrasto nelle immagini di torsione (o forza laterale).


Ma esiste un altro fenomeno che influenza la torsione, oltre alla derivata della topografia, ed è l'attrito della punta sul campione. Questo provoca una ulteriore torsione che si somma a quella dovuta alla derivata della topografia, per cui la situazione nella parte a) in Fig. 4.8 non è realistica, in quanto, in condizioni dinamiche, esiste sempre una torsione di base T0 diversa da zero, anche su piani orizzontali. È questa che costituisce una misura dell'attrito, e si può distinguere dalla torsione dovuta alla topografia solo per il fatto che, diversamente da questa, ha, come accade con la forza d'attrito, segno sempre opposto al moto, e quindi se abbiamo T0 durante una scansione in un verso (ad esempio forward), durante la scansione in verso opposto avremo, per effetto dell'attrito, una torsione -T0 (con una torsione totale che è sempre T=T0+T1, effetto di attrito più effetto di topografia).
I due casi discussi, di torsione da attrito e da (derivata della) topografia, sono distinti visivamente in maniera efficace in Fig. 4.9. Con riferimento a questa figura, nell'ipotesi di buona sovrapponibilità delle due immagini, sottraendo punto a punto una traccia backward da una forward (se è positiva la torsione di fondo dovuta all'attrito definita per la traccia forward) e dimezzando i valori ottenuti, si ottiene in teoria una traccia di attrito, in quanto i contributi di T1, uguali nei due versi, si elidono, mentre quelli di T0, uguali in valore assoluto (a parte piccole differenze dovute a imprecisione dello strumento) ma opposti nei due versi, si raddoppiano. Quindi la forza di attrito Fm (dove m è il coefficiente di attrito dinamico), che coincide con la forza laterale Flat, è, in ogni punto delle immagini, pari al valore "medio" tra scansione forward e backward: <Fm> = <Flat> = (Flat+-Flat-)/2, dove le parenti angolari indicano valori medi e i segni + e - all'apice indicano le scansioni nei versi +X (forward) e -X (backward). Abbiamo pertanto un metodo semplice che consente di ottenere intere immagini di (forza di) attrito, e distinguere pertanto materiali di attrito diverso che pure presentino la stessa quota topografica, fornendo così un'informazione "spettroscopica".



Fig. 4.9: quando si acquisisce la torsione della cantilever (forza laterale), questa contiene due contributi. Il primo dipende dalla derivata della topografia (salite e discese dei bordi delle strutture morfologiche), che è uguale nei due versi di scansione opposti ed è di natura conservativa (cioè non comporta dissipazione d'energia). Il secondo dipende dall'attrito punta-campione durante la scansione; è quindi di natura dissipativa (come l'attrito stesso) e presenta segno opposto tra le due scansioni forward e backward.


Nei primi SFFM le immagini di attrito erano solo mappe in grado di differenziare qualitativamente zone del campione di diverso attrito, ma successivamente si sono elaborate immagini di vero e proprio coefficiente di attrito dinamico, in grado cioè di fornire una precisa informazione quantitativa sull'attrito, (anche se, operando in aria, è sempre difficile distinguere l'attrito, che è la resistenza allo scorrimento che deriva dalla forza verticale imposta, dalla resistenza allo scorrimento dovuta all'adesione, conseguente ai contaminanti all'interfaccia punta-campione, cioè al vapore acqueo). Per definizione, se Fv è la forza verticale imposta (Setpoint o Reference) e Fm la forza di attrito (= Flat), il coefficiente di attrito è il numero puro (adimensionale) m = Flat/Fv. Quindi dalla formula precedente si ha <m> = (Flat+-Flat-) / 2Fv. In ogni caso per poter ottenere un valore di m è necessario misurare la forza laterale in vere unità fisiche e non in unità arbitrarie, cioè in Newton N per intendersi (o meglio in nN). Ma tutto quello che si può ricavare dallo strumento, tramite le sue "geometrie", è il valore fisico di torsione T, in radianti (si tratta di un angolo); occorre poi risalire da T a Flat. Queste grandezze sono però, com'è intuitivo, proporzionali (almeno in una prima approssimazione), e se definiamo pertanto una costante elastica laterale di torsione delle microleve klat tale che Flat = klat T, si ha infine <m> = klat(T+-T-) / 2Fv.



Fig. 4:10: per la misura dell'attrito è necessario conoscere non solo la costante elastica di deflessione kfless di una levetta AFM (che fornisce la forza verticale Fv), ma anche una diversa costante elastica associata alla torsione, qui definita come Klat, che fornisce la forza laterale.


Il problema è che, diversamente dalla costante elastica standard di deflessione delle microleve, la costante di torsione klat non è inclusa nei data sheets (i documenti con la descrizione tecnica) forniti dai costruttori di levette, né, vista la forma particolare, è possibile ricavarla con facilità in maniera analitica (cioè con semplici calcoli basati sulla teoria) per le comuni levette triangolari.



Fig. 4.11: tipica mappatura di torsione (rotazione intorno ad Y: ROTY) fornita da un software FEM. I diversi toni di grigio (in origine colori) corrispondono a vari valori della grandezza, derivati dai seguenti vincoli: base fissata, Fv=100 nN, Flat=10 nN (cioè si ipotizza un m=0,1, ordine di grandezza ragionevole). Si possono osservare, sotto le zone dei vari toni di grigio, i bordi che dividono la struttura in "elementi".


Si è però ovviato a questo inconveniente studiando le microleve con metodi di calcolo elaborati al computer, detti Finite Element Methods (FEM). In questi software di analisi delle strutture meccaniche, in uso tra gli ingeneri civili, in pratica si divide una struttura complessa in un gran numero di piccoli "mattoncini", e il programma, una volta impostati i vincoli (parti fissate della struttura) e le sollecitazioni (le forze applicate) risolve le equazioni dell'equilibrio per ciascun pezzetto e le collega ai punti di contatto, fornendo una soluzione globale.
Un esempio di caratterizzazione SFFM "spettroscopica" è già stato riportato, in sede di analisi approfondita dell'AFM (sezione
3.4), in Fig. 3.25 b)). Il caso della misura dell'attrito nell'AFM (divenuto SFFM) deve far riflettere su come a volte un effetto considerato indesiderato e solo origine di disturbo, come era nei primi AFM la torsione della leva dovuta all'attrito, si possa rivelare a volte, nel corso dell'evoluzione di una tecnologia, una preziosa fonte di ulteriori informazioni.

4.2.1.2 Tecniche spettroscopiche oscillanti

Tramite un AFM modificato è possibile misurare, oltre all'attrito, altre importanti proprietà dinamiche dei campioni. Certo in questi casi le modifiche sono più consistenti di quanto non fosse l'impiegare semplicemente una fotocella con geometria e gestione un po' più complicata del normale: si tratta di passare dalla modalità statica a deflessione costante ad altre modalità di utilizzo dello strumento dette "dinamiche", che prevedono la modulazione della deflessione, così come abbiamo già visto che avviene, ad esempio, per il comune modo AFM di non contatto e per il Tapping mode. Esistono molte diverse varianti di queste tecniche AFM "dinamiche" e "spettroscopiche"; accenniamo qui brevemente solo a quelle che noi consideriamo fondamentali.
Una prima tecnica è denominata Force modulation, e consente di visualizzare l'elasticità locale del campione. Si tratta in pratica di una variazione del contact-mode in cui la forza verticale non è né mantenuta costante né lasciata libera a se stessa ma appunto modulata, cioè fatta oscillare secondo un segnale sinusoidale inviato come pilotaggio lungo Z alla punta o al campione (cioè alla parte mobile delle due). L'ampiezza della modulazione della levetta che ne risulta varia in relazione alle proprietà elastiche del mezzo con cui la punta stessa è a contatto. Lo schema fondamentale di funzionamento è rappresentato nella figura seguente e descritto nella relativa legenda.



Fig. 4.12: campione e microleva agiscono come due molle poste in serie, per cui l'efficacia della modulazione imposta sulla deflessione di quest'ultima dipende anche dalla durezza (ovvero dalla costante elastica) del campione. Dove questo sia non molto più rigido della levetta, in pratica si "deflette" (o meglio cede alla compressione) prima lui della levetta, e quindi l'oscillazione di questa viene smorzata. Dall'analisi di questi smorzamenti si possono ricavare, in seguito ad appropriata taratura, mappe di "elasticità" (costante elastica o modulo di Young) del campione.


Il segnale applicato è dell'ordine delle centinaia di kHz, ben superiore a quello che il feedback riesce a controllare, in modo da garantire il contatto pur essendo presente una modulazione. La coesistenza e la non interferenza dei due segnali consente altresì la contemporanea acquisizione di una immagine topografica e di una a modulazione di forza, fornendo quindi un valido metodo di indagine.
Un'altra tecnica di analoghe caratteristiche è quella denominata Phase detection o Phase Imaging. Più in generale questa consente di ricavare tutto un insieme di informazioni relative alle proprietà meccaniche del campione, comprendenti elasticità, adesione e attrito. Diversamente dalla modalità precedente questa deriva dal non-contact mode. Si tratta di rilevare la differenza di fase tra il segnale che pilota l'oscillazione e il segnale di uscita di deflessione/oscillazione della cantilever. Si è dimostrato infatti che variazioni di questa differenza di fase riflettono le suddette proprietà del campione. Anche in questo caso il feedback opera in maniera indipendente dal segnale di modulazione, per cui l'immagine topografica e quella di phase-detection possono essere acquisite contemporaneamente.



Fig. 4.13: invece che lavorare sulla differenza di ampiezza di oscillazione causata dalle proprietà meccaniche del campione, è possibile studiare la differenza di fase generata da questo tra sollecitazione (input) e risposta (output). In questo caso si possono ricavare anche più informazioni insieme, benché sia necessario un amplificatore lock-in, mentre nel caso precedente è sufficiente un circuito rivelatore di picco (massimo).


Questa tecnica si applica laddove il campione sia in generale meglio analizzato usando il non-contact mode, ma di esso si desideri avere informazioni sull'elasticità locale (similmente la precedente tecnica si utilizza in concomitanza al contact mode).

4.2.1.3 Curve forza-distanza

Abbiamo già visto nel paragrafo 3.3.2 che in un AFM a varie distanze punta-campione corrispondono diverse forze d'interazione tra questi due "poli". La relativa curva forza-distanza (Fig. 3.17) viene percorsa sempre, in ogni caso, almeno una volta, in fase di avvicinamento della punta AFM al campione, fino al raggiungimento di un dato valore di forza verticale, nel modo di contatto (sia a deflessione sia a quota costante); inoltre ne viene percorso ripetutamente un breve tratto in tutte le tecniche AFM denominate "dinamiche", che cioè prevedono un movimento oscillante avvicinamento-allontanamento tra punta e campione. Ma visto che a diverse distanze corrispondono forze di origine diversa e quindi associate, in generale, a diverse parti del campione dotate di differente natura fisico-chimica, è possibile sfruttare questa "sensibilità" della curva forza-distanza a fini spettroscopici. È quanto viene fatto nella tecnica che potremmo definire di "misura sistematica e ripetuta" della curva forza-distanza su tutti i punti mappati nelle immagini, tecnica a cui vogliamo qui accennare brevemente.
Questa modalità, esplorando tutte le zone della curva forza-distanza, consente in teoria di mappare tutti gli effetti (e quindi le proprietà) esistenti nell'interazione punta-campione, e cioè elasticità, viscosità, attrito, e, in aggiunta, tendenze al legame chimico, associate alle cosiddette "interazioni specifiche". Il sistema utilizza un AFM partendo da una configurazione tipica di contact-mode, posizionando la levetta nella zona desiderata del campione. Quindi la microleva viene dapprima avvicinata al campione e in seguito ritratta, rilevandone in ogni istante la deflessione. Ciò da luogo a curve forza-distanza rilevate per ogni punto delle immagini, curve che contengono informazioni importanti sul campione immediatamente sottostante alla punta e consentono di quantificare la forza di interazione punta-campione. Si osservi pertanto che la quantità di informazioni rilevate è enorme, in quanto non si tratta più di un singolo valore D (deflessione, o qualsiasi altra grandezza del caso, ad esempio torsione T) per ogni punto (X,Y) del piano di base del campione, ma un'intera curva (D(Z))(X,Y), dove Z è la posizione relativa imposta, che esplora tutta la curva forza-distanza, tra campione (a riposo, cioè indeformato) e base della microleva (presa come riferimento invece della punta, perché l'estremità della leva si flette). È quindi possibile, per ogni Z fissato, estrarre da questo grande insieme di dati un'intera immagine d'interazione alla distanza Z fissata: si parla talvolta di force slices, "fette di forza", cioè immagini trasversali (su tutto il campione) dell'entità dell'interazione sonda-campione a quella data distanza, che quindi evidenziano particolari effetti e, di conseguenza, zone con specifiche proprietà chimico-fisiche sul campione.
Una delle grandi potenzialità di questa tecnica è inoltre costituita dalla possibilità di fissare sulla punta della microleva AFM una molecola "affine" ad un'altra molecola, fissata invece sul campione, che si vuole localizzare od evidenziare in qualche modo, misurando quindi l'entità dell'interazione tra le due, cioè la loro affinità. Si parla di funzionalizzazione delle punte delle microleve AFM, e sono oggi disponibili in commercio punte già funzionalizzate con le molecole di maggior interesse comune; una delle interazioni più tipiche rilevate è quella antigene-anticorpo in biologia.

4.3 Vari ambienti di misura

Aldilà delle varie tecniche derivate da AFM e STM, gli ultimi orientamenti di questa microscopia vedono come sempre più importante, per differenziare l'indagine condotta dai vari strumenti con caratteristiche dedicate al singolo campo d'azione, l'utilizzo dei microscopi in "ambienti" (mezzi fisici d'immersione dell'interfaccia sonda-campione) diversificati. È per questo che si è pensato di dedicare la presente breve sezione ad una rapida rassegna delle condizioni ambientali più utili e diffuse.

4.3.1 Aria

È certamente l'elemento più semplice in cui operare e quello che impone il minor costo. Infatti non sono necessari particolari accorgimenti né per la costruzione delle teste di misura (se non per i materiali) né per l'effettuazione delle misure. L'STM in tale mezzo è difficoltoso perché, oltre al problema dello strato contaminante di vapore acqueo adsorbito sul campione che è sempre presente in aria (vedi paragrafo 3.2.2.1), molti materiali da analizzare sviluppano uno strato di ossido che, nei casi migliori, influenza la reale immagine topografica del campione e, nei casi peggiori, addirittura non consente l'instaurarsi della condizione di tunnel. Questa considerazione è valida soprattutto per i semiconduttori. L'AFM invece lavora meglio in aria e non è condizionato dai suddetti fattori, per quanto la presenza dello strato di acqua sul campione provochi in ogni caso un effetto viscoso e alteri comunque le condizioni di interazione, (per esempio si finisce a volte per misurare con l'SFFM coefficienti di attrito enormi, molto maggiori di 1, per effetto dell'adesione più che del vero attrito).

4.3.2 Atmosfera controllata

Il problema del cosiddetto "effetto menisco" dovuto alla presenza di particelle di acqua tra punta e campione si può risolvere ponendo la testa di misura in una zona ad atmosfera controllata, ad esempio in atmosfera di Azoto (N2). La presenza di un gas inerte come questo previene la formazione di goccioline di umidità, e consente l'effettuazione di misure molto ben riproducibili a parità di altri fattori. L'aspetto negativo è dato dalla necessità di predisporre una camera a basso vuoto (pressioni dell'aria di circa 10-3 bar) completa di sistema di adduzione del gas; inoltre è necessario prestare attenzione ai materiali e al tipo di saldature, che devono essere compatibili allo stato di basso vuoto necessario. Questi problemi si possono evitare lavorando in flusso d'azoto, cioè in una camera, in questo caso allora anche di plexiglas, ad esempio, che benché non a tenuta stagna mantenga una concentrazione pressoché costante di gas grazie al continuo apporto di nuovo gas, che va a sostituire quello che sfiata via. Tale metodo però comporta grandi consumi di gas e quindi costi elevati, oltreché la scomodità della continua sostituzione della bombola. Pertanto costringe anche ad effettuare misure il più rapidamente possibile.

4.3.3 Ultra Alto Vuoto (UHV)

Sebbene nasconda abbastanza evidentemente problemi progettuali, questo ambiente di misura (Ultra High Vacuum, definibile come un ambiente a pressione <10-7 bar) fu il primo ad essere utilizzato con gli STM, perché consente misurazioni su semiconduttori perfettamente puliti, privi cioè dello strato di vapore acqueo e quindi del successivo ossido nativo che in ogni altro ambiente si viene a creare sulla superficie del campione. Dispositivi AFM in UHV sono non comuni, soprattutto per problemi progettuali della testa di misura, ivi compreso l'allineamento della luce laser utilizzata per rivelare la deflessione della levetta (nel comune metodo di rivelazione a leva ottica). I materiali costitutivi dello strumento devono essere selezionati con cura (ad esempio, oltre all'acciao della camera vera e propria, si usano in genere oblò di cristallo invece che di plexiglas) e montati seguendo tutte le procedure tipiche dei sistemi UHV. Questo impone costi elevati ma permette alla fine di ottenere con relativa semplicità immagini a risoluzione atomica.
La principale applicazione in UHV è lo studio spettroscopico con STM, che consente di ottenere una dettagliata caratterizzazione elettronica della superficie in esame, proprio perché non affetta dai contaminanti sempre presenti in aria o in basso vuoto. La principale controindicazione operativa è la difficoltà di ottenere così alti livelli di vuoto, e soprattutto il tempo necessario, anche quando tutto va bene, per raggiungerli. Nonostante esistano manipolatori sempre più efficienti che consentono di armeggiare col campione e con la punta dall'esterno della camera senza doverla aprire, se in casi estremi si verifica questa necessità è necessario poi ripetere tutta la procedura di effettuazione del vuoto, che richiede tempi fino a diverse ore, (esistono infatti vari cicli di pompe di capacità differenti che vanno innescate in successione, per raggiungere il vuoto spinto desiderato).

4.3.4 Liquido

L'ambiente liquido ha due principali vantaggi: consente di visualizzare in condizioni ambientali favorevoli oggetti biologici che in aria denaturerebbero, e permette di lavorare in regime di non contatto, con le sole deboli forze di Van der Waals, quindi alterando il campione biologico (generalmente molle e delicato) il meno possibile. Ma anche quando si lavori in contatto, in ogni caso vengono rimosse le forze capillari, in quanto non esiste più menisco, e la forza dovuta al liquido è isotropa, essendo completamente immerso l'intero insieme punta-campione. Occorre dunque costruire una cella liquida adeguata a contenere entrambi senza influenzare il moto relativo proprio della scansione, il che impone la soluzione di problemi di perdite o di inserimento del liquido nella cella. Questi aspetti sono di primaria importanza nella costruzione di una cella liquida, che, solitamente, dovrebbe prevedere anche la possibilità d'imporre un flusso di liquido costante.

4.3.5 Ambiente elettrochimico

Anche se è molto diverso dai precedenti, ha in realtà la stessa caratteristica di fornire un ambiente controllato per la misura. In questo caso si ha una cella di misura dotata di appositi elettrodi e di un potenziostato in grado di polarizzarli. Solitamente si crea una condizione particolare ad un elettrodo, che è al contempo il campione di misura. Ad esempio, si induce un'ossidazione o una riduzione e la si va a studiare dal punto di vista delle modificazioni superficiali indotte sull'elettrodo interessato. Questo ambiente è pertanto solitamente utile per studiare fenomeni elettrochimici, di corrosione, di formazione di fasi, di assorbimento e di deposizione di materiale organico o inorganico.

4.4 Altri SPM

Prima e dopo lo sviluppo delle tecniche di microscopia a scansione a sonda oggi più diffuse e importanti (sostanzialmente STM e AFM nella varie modalità d'utilizzo, oltre che in qualche misura anche lo SNOM, vedi paragrafo 2.4.3) si sono sviluppate altre tecniche, fondamentalmente basate sugli stessi principi di interazione "vicina" (campo prossimo), puntuale (tramite sonda piccola e localizzata) e ripetuta (nella scansione raster), che possono essere definite minori, non per una validità scientifica inferiore in linea di principio alle altre, ma perché talmente specialistiche da essere ritenute applicabili solo ad un campo molto ristretto di problematiche e di campioni. Ricordiamone alcune.

4.4.1 SICM

Lo Scanning Ion Conductance Microscope è nato nel 1989. In questo strumento il campione è immerso in un bagno elettrolitico (come una soluzione salina) e viene percorso nella scansione da una micro-pipetta riempita di un elettrolita. Al diminuire della distanza campione-sonda la conduttanza del circuito, chiuso su un galvanometro che provvede al monitoraggio, decresce, perché lo spazio attraverso il quale gli ioni possono fluire è diminuito. Come al solito si può allora lavorare a quota costante (e il reciproco della conduttanza sarà la misura della quota del campione) o a "grandezza" costante (in questo caso conduttanza), tramite un opportuno circuito di posizionamento in feedback (e il segnale stesso di pilotaggio fornirà la misura cercata). La risoluzione che è possibile ottenere è simile a quella dello SNOM (circa 10 nm).
Il SICM è un microscopio rivolto all'analisi di campioni non conduttori soffici (in quanto non avviene contatto) e quindi particolarmente indicato, anche per l'ambiente in cui è posto il campione, a studi di biologia ed elettrofisiologia. Un esempio è la visualizzazione di membrane cellulari, di cui si può compiere un'analisi non solo strutturale ma anche funzionale, relativamente al comportamento delle correnti ioniche che defluiscono attraverso i loro pori.

4.4.2 LFM e derivati

Il Laser Force Microscope è nato nel 1987, come strumento per il monitoraggio della qualità nella produzione di dispositivi (devices) per la microelettronica. Il SEM aveva provveduto allo scopo per parecchi anni, ma con i due limiti della scarsa risoluzione nella terza dimensione e della natura distruttiva dell'interazione. L'STM richiedeva anch'esso, come già il SEM, la ricopertura dei campioni con strati di materiale conduttore, mentre l'AFM all'epoca impiegava ancora forze di contatto troppo elevate per non danneggiare i delicati elementi dei microcircuiti; (nel primo AFM le forze di carico utilizzate erano non inferiori ai 10-8 N, e solo nel 1989 si sarebbe scesi al nanonewton; oggi è possibile effettuare misure con buona sensibilità e precisione a forze inferiori ai 10-10 N).



Fig. 4.14: schema semplificato di un LFM (praticamente un AFM in modalità di non contatto con sensore laser).


Il LFM lavora con le forze attrattive di Van der Waals, scannando il campione ad una distanza di 3-20 nm, ed esercitando su di esso forze che possono essere spinte a valori minimi di 10-11 N. Il meccanismo di rivelazione della forza di attrazione si basa sull'effetto di questa sulla dinamica di una sonda vibrante, una levetta (cantilever) consistente in un filo di tungsteno rastremato lungo circa mezzo millimetro, terminante in una punta ritorta affinata con processi elettrochimici di etching al diametro di 50 nm o meno, (alternativamente sono state usate anche punte di Silicio). Un trasduttore piezoelettrico provvede a far vibrare la cantilever. La frequenza di pilotaggio giace appena sopra alla minima frequenza di risonanza della leva (tipicamente intorno ai 50 kHz), facendo sì che essa funzioni in pratica da amplificatore. In questo modo la punta può oscillare di un'ampiezza anche cento volte maggiore di quella impostata dal piezo alla base della leva. Se nel movimento di scansione la topografia del campione è tale che la distanza dalla sonda viene a diminuire, le accresciute forze attrattive dovute alla vicinanza del campione (e quindi l'accresciuto gradiente di forza durante le oscillazioni dello stesso) abbassano la frequenza di risonanza del cantilever. In questo modo la frequenza di pilotaggio giace ora molto sopra la frequenza di risonanza del sistema leva-campione, e così l'ampiezza delle oscillazioni torna a diminuire.
Il LFM è quindi un AFM operante in modo attrattivo di non contatto, che deve il suo nome al fatto che le variazioni di ampiezza sono rivelate da un sensore laser, con tecniche interferometriche analoghe a quelle applicate in astronomia o geofisica per accurate misure di distanze. Il risultato di questa misura entra in un ciclo di feedback che stabilizza il campione ad una distanza dalla punta (e quindi un gradiente di forza) media, costante. Questo meccanismo assicura al LFM una risoluzione fino ai 5 nm, e una notevole sensibilità anche per la visualizzazione di sottili fenditure, che possono costituire uno dei principali difetti dei microcircuiti integrati.
Quattro varianti del LFM, basate sul rilevamento di grandezze fisiche diverse, sono brevemente descritte nelle pagine seguenti.

4.4.2.1 MFM

Il Magnetic Force Microscope ha per sonda solitamente una punta di Nichel o Ferro magnetizzati, e serve per testare su scala del nanometro la qualità dei domini magnetici nei supporti comunemente usati dai computer per la memorizzazione (storage) dei dati, o quella delle testine dei dispositivi per la loro lettura. Le cantilever "MFM", un tempo cantilever AFM magnetizzate "artigianalmente", sono oggi ormai disponibili sul mercato con elevati standard di riproducibilità. La risoluzione dello strumento è tale che è possibile tracciare il pattern del campo magnetico emesso da una testina di registrazione, con la precisione dei 25 nm circa.



Fig. 4.15: la punta inerte di una microleva AFM ricoperta da un film di materiale magnetico scorre sul campione, rilevando, a parità di topografia, la eventuale magnetizzazione in domini presente sul campione.


Come spesso accade in tutte le tecniche SPM, un'immagine ottenuta con una punta magnetizzata contiene informazioni sia proprie della sua sonda, cioè magnetiche, sia, inevitabilmente, topografiche. La prevalenza delle une o delle altre dipende dalla distanza punta-campione, poiché le forze magnetiche persistono a distanze maggiori rispetto alle forze di Van der Waals. Normalmente le acquisizioni MFM vengono fatte sorvolando il campione a quote intorno ai 100 nm; tuttavia per avere un'idea precisa dei due distinti effetti occorre acquisire diverse immagini impostando varie distanze punta-campione.

4.4.2.2 EFM

Nell'Electrostatic Force Microscope alla punta che sorvola il campione senza toccarlo è applicata, rispetto a questo, una differenza di potenziale. La sonda è quindi sensibile alle cariche statiche, in corrispondenza delle quali la cantilever si deflette, fornendo un'immagine dei domini carichi della superficie del campione in analisi. La variazione della deflessione è proporzionale alla densità di carica e può essere misurata con il sistema della leva ottica.



Fig. 4.16: nell'EFM la punta della levetta è elettrizzata e non magnetizzata, ed è quindi in grado di individuare eccessi locali di carica elettrica, ovvero zone di diverso drogaggio (n o p) sui dispositivi a semiconduttori.


Questo strumento, utilizzato per studiare la variazione spaziale della densità superficiale di carica, trova un'importante applicazione nella misura della quantità e della distribuzione di impurità (atomi droganti donatori o accettori di elettroni, vedere "Introduzione alla Fisica dello Stato Solido") nei dispositivi a semiconduttori, parametro fondamentale per la loro funzionalità. L'EFM ha dimostrato sensibilità alle variazioni di densità di impurità in un ampio range utile, dalle 1015 alle 1020 unità per cm2, individuate con una risoluzione laterale di 200 nm. Un'altra utile applicazione può essere inoltre la valutazione dell'intensità dei campi elettrici di un dispositivo acceso/spento, cioè lo studio delle interferenze elettromagnetiche (tecnica nota con il nome di "voltage probing").

4.4.2.3 SCM

Una variante dell'EFM ad esso assai simile ma in qualche modo peculiare è la tecnica denominata Scanning Capacitance Microscope. Anche in questo caso viene applicata una differenza di potenziale fra punta e campione, ma questa volta la scansione in non contatto avviene "a quota costante". In pratica punta e campione si comportano come le due armature di un condensatore, nel quale la variazione della distanza sonda-campione provoca in questo caso variazioni di capacità (in quanto cambia lo spessore del dielettrico interposto tra i piatti del condensatore), le quali possono essere misurate, con tecniche dinamiche (ad oscillazione), con una sensibilità fino ai 10-22 F, in una banda di 1 Hz.

4.4.2.4 SThM

L'ultimo strumento direttamente derivato dal LFM è lo Scanning Thermal Microscope. In esso la "sonda" è in pratica una termo-coppia costituita dalla cantilever stessa. Questa 6egrave; infatti composta di due distinti metalli, che rispondono in maniera diversa a variazioni nella temperatura del campione sorvolato, causando una deflessione della microleva stessa che fornisce come risultato una mappa bidimensionale della temperatura. Tale tecnica consente di misurare la conducibilità termica del campione, con sensibilità a variazioni di temperatura fino all'ordine dei decimillesimi di grado, e con una risoluzione della decina di nanometri.

Concludendo possiamo dire, volgendoci indietro, che nelle sezioni dalla 4.1 alla 4.4 che sta per concludersi abbiamo visto quale sia stata l'evoluzione degli strumenti SPM, a partire dai primi STM e AFM fino ad arrivare agli ultimi microscopi odierni, con tutte le varie funzionalità estese. Tale analisi è stata svolta come in una linea teorica d'evoluzione, e con un interesse rivolto prevalentemente alla "Fisica" degli apparecchi. Nella prossima parte del nostro lavoro vogliamo invece guardare agli strumenti in un'altra ottica, cioè intendendoli come prodotti; ci occuperemo pertanto di come i microscopi SPM descritti in precedenza sono effettivamente reperibili in commercio, sotto quali forme e in quali abbinamenti, e realizzati da parte di quali case produttrici. Riteniamo che anche questa analisi possa costituire un elemento interessante, visto l'orientamento divulgativo della presente opera, il cui interesse è legato alla penetrazione delle tecniche esposte nel mondo reale di tutti i giorni, anche sotto l'aspetto commerciale; questo infatti presenta sempre, evidentemente, un riscontro nelle richieste della società, le quali si orientano in maniera numericamente notevole solo sulle tecnologie già consolidate, come quelle della maggior parte delle tecniche SPM esposte finora.
Più avanti, nell'ultima parte di questo saggio, ci avventureremo infine in un accenno sulle tecniche più all'avanguardia e in fase di studio, i cui prodotti commerciali sono di là da venire, le quali sono in fase di sviluppo nel chiuso degli ultraspecializzati laboratori di ricerca, provando infine a fare un'analisi del quadro complessivo delle odierne nanotecnologie, nel quale la microscopia SPM s'inserisce naturalmente.

4.5 Il panorama SPM commerciale

Quella della microscopia a scansione a sonda è una tecnologia relativamente recente ma già in gran parte consolidata, in quanto ha da sùbito e sempre più fortemente influenzato il mondo scientifico e tecnologico negli ultimi quindici anni. Pertanto possiamo dire che raramente si assiste alla repentina nascita di un mercato a diretto seguito di una scoperta scientifico/tecnologica come è successo invece in questo campo, dove sono bastati pochi anni per imporre sul mercato mondiale apparecchiature in grado di fornire immagini superficiali dei campioni a risoluzione atomica. Oggi gli SPM sono utilizzati in un'ampia varietà di discipline, tra cui la scienza di base, l'analisi routinaria di asperità superficiali nei materiali e la visualizzazione di superfici, ad una risoluzione che spazia da quella atomica a quella micrometrica. L'ultimo aspetto ha suggerito studi diversi, che vanno dall'analisi di cellule al test dei semiconduttori.
Il lettore comune che volesse oggi rendersi conto della penetrazione reale delle tecniche SPM nel mondo dell'industria, per prima cosa si appresterebbe certamente ad effettuare una ricerca tramite il più diffuso mezzo di reperimento d'informazioni, ovvero il World Wide Web di Internet. Questa ricerca è stata svolta di recente da noi, e le informazioni principali, di seguito riportate, consentono di chiarire l'entità di tale panorama.
È stato possibile rinvenire un gran numero di produttori commerciali di microscopi SPM, intesi come strumenti completi e funzionanti interamente realizzati dall'azienda in questione. Inoltre sono stati individuati produttori che realizzano soltanto singole parti di microscopi SPM, tipicamente i moduli di elettronica di controllo, e/o anche altri prodotti di utilizzo comune nelle microscopie SPM, e cioè sonde SPM e campioni standard di calibrazione. La nostra attenzione si è tuttavia focalizzata soltanto sulle aziende che realizzano o almeno distribuiscono strumenti SPM completi; per questi, come dato aggiuntivo, nella tabella riepilogativa dei risultati della presente analisi è riportato se l'azienda in questione produce anche gli accessori di cui sopra.
L'analisi è volta a comprendere lo stato dell'arte degli strumenti ed il livello di avanzamento dei produttori attuali; per quanto riguarda poi i prezzi occorre dire che nessuna azienda li fornisce, come sempre accade nelle tecnologie avanzate, se non su preventivo derivante da un serio interesse all'acquisto, benché almeno l'ordine di grandezza sia facile da intuire in base alle caratteristiche di massima dello strumento. Ad esempio un qualsiasi microscopio SPM che operi in ultra alto vuoto (UHV) prevede, per l'acquisto dell'intero sistema, una spesa di circa mezzo miliardo, in quanto dell'ordine di alcune centinaia di milioni di Lire sono i prezzi minimali delle sole camere UHV, ai quali va aggiunta, per lo strumento SPM vero e proprio, una somma che può variare nell'intorno di un centinaio di milioni (diciamo tipicamente dai 50 ai 150).

4.5.1 Digital Instruments

DI è un'azienda fondata nel 1987 che ha da sempre dedicato grandi risorse allo sviluppo di strumenti SPM. Nello stesso anno di nascita rese disponibile il primo STM commerciale, mentre il primo AFM DI (primo in assoluto sul panorama internazionale) fu commercializzato due anni più tardi. DI testimonia la sua leadership indiscussa con la proprietà di oltre venti brevetti relativi a tecnologie e/o dispositivi (dalla piccola cella liquida all'evoluto sistema elettronico di controllo e feedback della testa SPM), e la letteratura SPM internazionale risulta effettivamente dominata da risultati acquisiti con i suoi strumenti, tanto che ben otto volte la copertina di Science è stata dedicata ad immagini SPM acquisite con strumenti DI. Numerosi sono anche i premi ottenuti nell'ambito dello sviluppo delle tecnologie SPM, che ha consentito anche una rapida crescita dell'azienda, inserita recentemente nell'elenco INC 500 delle società americane in più rapida espansione. In particolare l'innovazione più importante degli ultimi sei anni, la modalità AFM detta Tapping è stata introdotta con successo da DI, e poi riprodotta nei vari strumenti dalle altre aziende, sotto diverso nome (IC: Intermittent Contact, PC: Periodic Contact).
Inoltre DI, oltre alle microleve AFM standard, produce anche microleve specifiche per utilizzi di microlavorazione, che possono essere usate sugli strumenti MultiMode e Dimension (vedi più sotto). Si tratta di leve ricavate da lamine metalliche, con punte di diamante: possono essere utilizzate per nanoindentazione e per la successiva visualizzazione dei risultati. L'impiego di un AFM per questi scopi è favorevole proprio perché consente di "lavorare" il campione e poi di visualizzarlo in tempi relativamente brevi, senza la necessità di impiegare strumenti diversi o rilocalizzare, in visualizzazione, il punto trattato in lavorazione. Le punte di diamante sono infatti abbastanza appuntite per ottenere buone risoluzioni, e anche se le microleve dedicate alla nanoindentazione sono più rigide, in Tapping è ancora possibile visualizzare campioni molli.
DI commercializza essenzialmente tre tipi di strumenti: MultiMode, BioScope e gli strumenti della serie Dimension.

4.5.1.1 MultiMode

Il MultiMode DI è un SPM combinato che dispone di tutte le più importanti tecnologie di scansione-acquisizione, consentendo quindi di misurare grandezze come (oltre alla topografia) elasticità, attrito, adesione, campi elettrico e magnetico del campione. Si tratta di uno strumento compatto e ad alta rigidità, che dovrebbe consentire la risoluzione atomica come routine. È quindi in qualche modo indirizzato alla ricerca, pur essendo particolarmente versatile. Il software presenta funzionalità di linearizzazione dei movimenti imposti dall'attuatore piezoelettrico. Si tratta di uno strumento in grado di effettuare grandi spazzate (che decidiamo qui di definire "grandi" quando dell'ordine di 100 mm o poco meno), avendo il limite massimo di scansione pari addirittura a 200 mm. Lo strumento dispone anche di un sistema d'avvicinamento automatico motorizzato (JV Scanner) che corregge lo spostamento del punto d'interazione della sonda sul campione che si verifica durante l'avvicinamento della sonda fino a raggiungere il punto di lavoro, e quindi facilita l'analisi di precise zone del campione, preventivamente individuate come oggetto d'attenzione da parte dell'utilizzatore del microscopio, tramite un microscopio ottico abbinato all'SPM.
Il MultiMode consente il Tapping e il Phase Imaging. Richiede però per questa modalità la presenza di un modulo di elettronica di controllo avanzato, denominato Extender. Le funzionalità di MFM ed EFM, che consentono l'acquisizione di immagini di gradiente di forza magnetica ed elettrica lungo la superficie del campione, sono disponibili nella modalità di scansione, proprietaria di DI, denominata LiftMode, la quale consente di visualizzare simultaneamente anche la topografia. Per queste acquisizioni è raccomandato, anche se non necessariamente richiesto, il modulo di cui sopra. Questo infatti facilita la misura delle variazioni di ampiezza o fase o frequenza dell'oscillazione che consente la rivelazione delle forze magnetiche ed elettriche. Esso è inoltre necessario per l'acquisizione in modalità Surface Potential Microscopy, che misura la differenza nel potenziale superficiale locale. La scansione LiftMode è una tecnica che prevede un doppio passaggio combinato sul punto di misura, del quale il primo passaggio serve per rilevare la topografia (in Tapping mode), ed il secondo per misurare la forza (elettrica o magnetica o di diversa natura) presente nello spazio sulla superficie del campione ad una data distanza fissata di riferimento della sonda dal campione. Si tratta, in pratica, di un'analisi del tipo di curve Forza-Distanza "ridotta", mentre per la tecnica "completa" avente questo nome nessuna tecnologia commerciale è stata però ancora realizzata. DI afferma che il metodo LiftMode fornisce la massima risoluzione tra i vari modi di scansione, anche se non viene fornita motivazione, e in verità già il Tapping mode non è in teoria il metodo a massima risoluzione topografica, essendo sotto questo aspetto inferiore rispetto al semplice "contact".
Un'altra modalità d'utilizzo implementata è quella di Force Modulation. Come nel Tapping con Phase Imaging, è possibile acquisire simultaneamente due canali: topografia ed elasticità (là era viscoelasticità); si osservi invece che nel LiftMode per acquisire due canali (topografia e forza elettrica o magnetica o altra) sono di fatto necessarie due scansioni consecutive della stessa riga del campione.
Circa la modalità denominata Surface Potential Microscopy DI non fornisce specificazioni che consentano di comprendere meglio il principio di funzionamento: probabilmente si tratta di un'estensione del LiftMode che consente di impostare la distanza di scansione della seconda passata in modo da avere una mappa dell'interazione ("Potenziale superficiale") del campione rispetto alla sonda, ad una determinata distanza dalla superficie del campione; si tratta cioè di un'estensione del metodo effettuata in modo da ottenere una diversa "fetta" (force slice) di quelle dedicate alle forze elettriche o magnetiche.
Lo strumento è inoltre dotato di funzionalità Lateral Force Microscope LFM (vedi SFFM). Infine la possibilità di ottenere caratterizzazioni STM è associata, nel MultiMode, all'attivazione opzionale di una sonda alternativa STM (punta conduttrice), mentre le sigle, utilizzate da DI, ECSTM ed ECAFM (dove EC sta probabilmente per Electrolytic Cell) si riferiscono all'uso dello strumento come STM o AFM rispettivamente, nel caso in cui vengano effettuate misurazioni su campioni di materiali conduttori immersi, all'interno di un'opportuna vaschetta, in soluzioni elettrolitiche, con o senza controllo del potenziale, ed agenti in qualche modo da elettrodi della cella elettrochimica.



Fig. 4.17: il microscopio modello MultiMode di Digital Instruments, l'SPM più diffuso nel mondo.


Il MultiMode consente infine eventuali modalità personalizzate, realizzabili tramite il modulo elettronico Signal Access Module (SAM), che permette di monitorare ed utilizzare tutti i vari segnali di input e output reperibili nel controller NanoScope IIIa in qualsiasi punto del circuito.
Nel Multimode oltre alla nanoindentazione sono possibili funzionalità di test di resistenza all'usura per scratching, utili per analizzare l'adesione di film ai substrati e la loro durata nel tempo con l'utilizzo. Il software è completo e prevede le più comuni elaborazioni di correzione ed analisi delle immagini: visualizzazione 3-D, analisi delle sezioni, misure di rugosità e delle dimensioni dei grani, istogramma di topografia, filtraggi passa basso e passa alto e mappe di FFT. Inoltre comprende funzionalità di analisi frattale e di stress da carico meccanico, oltre a un macrolinguaggio per la realizzazione di pattern di scansione (e quindi eventualmente nanoindentazione o scratching) sia per STM che per AFM in Contact mode.
La meccanica prevede una sospensione in silicone per la riduzione delle vibrazioni trasmesse attraverso la base, e una copertura per la riduzione del rumore acustico trasmesso attraverso l'aria (opzionali un tripode e un tavolo antivibranti dedicati). Il controller è digitale (DSP), con tensioni di pilotaggio X, Y e Z tra -220 e +200 V. Opzionale un sistema di visualizzazione ottica comprendente microscopio 450x, videocamera CCD a colori e monitor. La visuale dell'interfaccia è frontale.

4.5.1.2 BioScope

DI, come altre aziende, ha sviluppato anche uno strumento dedicato in maniera specifica all'analisi di campioni di natura biologica, il BioScope. Questo utilizza lo stesso controller (NanoScope IIIa) del MultiMode, ma una testa SPM dei microscopi della serie Dimension, dedicata alla metrologia, cioè ad un'analisi quantitativa di qualità superiore, soprattutto nel posizionamento del campione. In pratica si tratta di una testa stand-alone (indipendente, che opera sulla base sulla quale viene posizionata) che può essere posta su un microscopio ottico. La particolarità sta nel livello d'integrazione del microscopio ottico disponibile con la testa SPM (normalmente AFM, il modulo di conversione in STM è opzionale). In pratica è l'AFM ad essere integrato sul microscopio ottico, e non viceversa. Si tratta tuttavia di un microscopio ottico dedicato, che alla varietà di tecniche ottiche comuni utilizzabili (tecniche di microscopia in campo chiaro, a fluorescenza e confocale) unisce una struttura meccanica particolarmente rigida, necessaria per ottenere buone risoluzioni con campioni molli e per garantire il posizionamento preciso del campione, anche considerato il passaggio ideale tra le due fasi di 1) individuazione della zona d'interesse, a basso ingrandimento, tramite il microscopio ottico, e 2) successiva analisi dettagliata, a grande ingrandimento, tramite AFM. Il microscopio ottico è invertito, e questo consente le tipiche operazioni di manipolazione e posizionamento grossolano manuale del campione utili nella microscopia ottica di campioni biologici. È possibile rimuovere la testa AFM, relativamente leggera (il microscopio pesa complessivamente 57 kg, in gran parte dovuti all'unità di microscopio ottico, mentre il Multimode pesa 102 kg) per utilizzare il microscopio ottico in trasmissione, con tecniche come contrasto di fase e Nomarsky/DIC. Quindi, riposizionando la testa AFM, la posizione originale è garantita entro una differenza di pochi micron.
Le caratteristiche che rendono lo strumento particolarmente adatto per i campioni biologici sono, oltre a questo elevato grado di prestazioni dello stadio ottico ed all'utilizzo della modalità di scansione Tapping, adatta a campioni molli, la possibilità di utilizzare particolari supporti dei campioni, come vasi di Petri o vetrini standard, e l'impiego di scanner sviluppati da DI che possono essere tranquillamente immersi in liquido senza problemi, mentre per un AFM ordinario operare in liquido, ad esempio con una cella liquida aperta o non perfettamente stagna, significa correre il pericolo di far entrare in contatto l'alta tensione sugli elettrodi del piezoelettrico con il liquido in cui è immerso il campione. DI ovviamente non fornisce particolari delucidazioni circa le caratteristiche degli scanner.
Inoltre lo strumento, dedicato ad utenti abituati a facili e rapide manipolazioni, solleva l'operatore da particolari problemi relativi al posizionamento corretto dello spot laser sul dorso della microleva (viene utilizzato il metodo di rivelazione delle deflessioni detto a leva ottica). Il sistema proprietario denominato TrackScan provvede infatti ad impostare la posizione corretta senza generare spostamenti nel laser (probabilmente con un sistema di specchi e/o lenti) ed in maniera completamente automatica. Ciò consente di ridurre al minimo le perturbazioni di natura meccanica sul sistema punta-campione, e di eliminare praticamente (secondo DI) l'artefatto che viene generato sulle immagini sotto forma di curvatura (bow) del piano di background delle stesse. Questo risulta probabilmente possibile in seguito alla movimentazione del laser in maniera coerente con la microleva, anche se DI non fornisce informazioni al riguardo.
Il BioScope prevede l'utilizzo con tutte le più importanti funzionalità AFM (Contatto, Non Contatto, Tapping, Lateral Force o SFFM), mentre per Force Modulation e per l'utilizzo come STM, comunque possibili, è necessario hardware aggiuntivo. Il controller è lo stesso del MultiMode, e questo vale anche per la base isolante in silicone. Il produttore parla per questo strumento di oltre 1500 installazioni attive.

4.5.1.3 Dimension

Gli strumenti della serie Dimension utilizzano sostanzialmente tutti la medesima testa, praticamente in abbinamento ad una postazione completa particolarmente stabile dal punto di vista meccanico, e sono dedicati allo stesso tipo di studio: quello dei wafer di semiconduttori. Caratteristiche generali sono quindi la possibilità di posizionare nell'alloggiamento d'analisi campioni particolarmente estesi.
A partire dal Dimension 3100, che è lo strumento base, tutti questi SPM presentano tutte le funzionalità AFM e STM, inclusi quindi anche il funzionamento come Scanning Capacitance Microscope, nel quale viene misurata la concentrazione dei portatori di carica sulla superficie di semiconduttori, e lo Scanning Thermal Microscope, in cui viene misurato il gradiente di temperatura sulla superficie del campione. In particolare lo SCM estende le funzionalità di misura di profili di concentrazione dei portatori di carica precedentemente disponibili tramite altri strumenti: SIMS (Secondary Ion Mass Spectrometry), SRP (Spreading Resistance Profiling) e CV (Capacitance-Voltage), assai importanti nello studio dell'effetto del drogaggio nei dispositivi di microelettronica, perché consentono di localizzare, ad esempio, le giunzioni e la relativa spaziatura in un gate di un MOSFET, parametro tra i più importanti per le prestazioni del dispositivo.
In questo strumento un sensore di capacità risonante nell'UHF è collegato al sistema leva/punta (che dev'essere ricoperta di materiale conduttore) tramite una linea di trasmissione. Le piccole variazioni di capacità all'interfaccia punta-campione caricano la linea di trasmissione e la frequenza di risonanza del sistema venendo grandemente amplificate, in modo che il sistema risulta sensibile a variazioni di capacità dell'ordine degli attofarad (10-18 F). Le variazioni di capacità nel campione sono pilotate da un campo elettrico modulato tra punta e campione, che varia con frequenze del kHz. Il movimento alternativo di svuotamento ed accumulazione dei portatori di carica nel campione in prossimità della punta può essere modellato come lo spostamento di un elettrodo di un condensatore equivalente. Poiché la capacità è inversamente proporzionale alla distanza tra i piatti, questo spostamento varia il carico capacitivo del sistema di sensore risonante e, quindi, la frequenza di risonanza. La profondità dello svuotamento è determinata da campo applicato, proprietà e spessore del dielettrico (uno strato d'ossido sul campione) e dalla concentrazione dei portatori di carica liberi. Il segnale misurato è in pratica dC/dV. Si ricostruiscono quindi curve C-V, che possono essere mappate a diverse frequenze e concentrazioni di drogaggio del semiconduttore, e dal cui studio da almeno 35 anni si ricavano importanti informazioni. La novità consiste nell'ottenere una mappatura bidimensionale di queste curve (immagine) sul campione, rispetto alla vecchia mappatura unidimensionale (profili lungo una direzione).
Lo SThM è un'opzione delle serie di NanoScope MultiMode e Dimension. Utilizza una sonda opportuna (microleva di Si3N4 modificata con una resistenza variabile incorporata nella punta, utilizzata in contatto). Consente di rilevare gradienti di temperatura con risoluzione di temperatura pari a ~0,2  C e di posizione laterale pari a ~200 nm. Lo SThM può essere utilizzato per monitorare i gradienti di temperatura nei semiconduttori e nei sensori magnetici, ad esempio per la valutazione delle prestazioni di testine magnetoresistive per l'immagazzinamento di dati e l'identificazione di difetti nei dispositivi a semiconduttore.
Il Dimension 3100 è in pratica una piattaforma completa, dotata di testa SPM con tutte le funzionalità d'acquisizione e di Personal Computer, e consente di analizzare campioni fino a 8" (pollici) di diametro, con scansioni programmate, senza assistenza dell'operatore. È possibile aggiungere una camera di vuoto dedicata. È equipaggiato con sistema TrackScan. Su video fornisce un'immagine ottica presa dall'alto dell'interfaccia punta-campione, con possibilità di zoom motorizzato e risoluzione di 1,5 mm. Diversamente dai singoli strumenti, la piattaforma consente di cambiare modalità di scansione, da STM ad AFM, da LFM a FM, con la sola impostazione di opzioni software.
Le caratteristiche nominali sono tali che il rumore è minore di 0,5 Å in Z, la spazzata ~90 mm, e la dinamica Z ~6&NBSP;mm. L'accuratezza laterale varia da 1 a 2 %. Le dimensioni massime del campione sono fino a 15 cm (20 con mandrino opzionale), per uno spessore massimo 1,2 cm. Sono disponibili portacampioni dedicati da 15 cm; i campioni sono ovviamente wafer di semiconduttori e hard disk.
Il posizionamento sul campione avviene assistito da un motore: la risoluzione è di 2 mm, con riproducibilità della posizione tipica di 3 mm, massima di 10 mm. Per analisi di campioni con rugosità RMS <10 nm o in ambienti con elevato rumore acustico, viene fortemente consigliato l'utilizzo di un sistema d'isolamento dalle vibrazioni dedicato. Complessivamente DI riferisce per questo modello di oltre 2200 esemplari venduti.
Il Dimension 5000 sostanzialmente non è che una versione leggermente superiore, e ancora più spinta nello specifico campo d'applicazione del 3100: è esclusivamente dedicato all'analisi di campioni a grande estensione, e quindi destinato all'utilizzo nell'industria per la produzione e il controllo di qualità. Consente di analizzare automaticamente fino a 100 zone di un campione largo fino a 35 cm (cioè 14"). Dei sistemi ottici di verifica della posizione assicurano la precisione del mm. La tecnologia StiffStage e la costruzione in Invar garantiscono stabilità termica e meccanica, e aiutano a mantenere il rumore nelle clean rooms a livelli molto contenuti.
Il rumore in Z è minore di 0,5 Å RMS in ambienti di produzione con livello di rumore bianco di 75 dbc, minore di 0,3 Å RMS in ambienti a basse vibrazioni/rumore. Lo strumento è in grado di risolvere in maniera riproducibile strutture su scale dei 10 nm su wafer di Silicio lucidati a spazzata di 1 mm e frequenza di scansione di 2,5 Hz, in presenza di isolamento acustico/meccanico. Le dimensioni di scansione sono le stesse del 3100. La riproducibilità nel posizionamento unidirezionaleè 1 mm. Il sistema motorizzato di spostamento è disponibile, in via opzionale, anche per la rotazione del campione.
Infine il Dimension 7000 prevede procedure di scansione ed acquisizione ottimizzate in mode che possono essere esaminate ~60 zone all'ora. Si tratta di uno strumento diffuso in oltre 100 installazioni. Presenta un software d'analisi dei dati avanzato, con anche funzioni di pattern recognition, tavolo antivibrante e un robot per la gestione dei wafer.

4.5.2 Park Scientific Instruments

La PSI è stata fondata nel 1988 dai ricercatori dell'Università di Stanford per sviluppare strumenti SPM commerciali. Oggi è un'azienda consociata di Thermo Instruments Systems, un gruppo dedicato alla realizzazione di strumenti di precisione per il controllo di qualità e la ricerca industriale, utilizzanti sistemi di elevata velocità di acquisizione dati e tecnologie DSP.
Fin dall'inizio dell'attività l'azienda ha occupato una posizione di gran rilievo nel panorama internazionale, seconda come innovazioni e diffusione di strumenti solo alla DI. PSI in particolare è stato il primo produttore di microleve commerciali standard, e si può considerare attualmente ancora leader in questo campo, nel quale ha sviluppato, nel corso degli anni, soluzioni sempre innovative: dalle prime MicroLever di Nitruro di Silicio (Si3N4), sia normali che ricoperte d'oro per elevare la riflessione del laser nel metodo di rivelazione della deflessione a leva ottica, alle UltraLever, microleve di Silicio con punta conica svasata ad elevato fattore di forma, cioè particolarmente affilate, ottimali per la visualizzazione di campioni con strutture particolarmente elevate e ripide (ad esempio scalini in pattern di semiconduttori). Successivamente sono arrivate le Sharpened Cantilever (microleve dotate di una superpunta terminale particolarmente sottile, adatte soprattutto alle applicazioni MFM), le microleve Self-Sensing o PiezoLever, che consentono la misurazione dello stress e quindi della deflessione in maniera autonoma, tramite il cambiamento di resistenza elettrica indotto in esse, e non necessitano pertanto di un sistema di rilevamento della deflessione indipendente.
Riguardo gli strumenti SPM, PSI vanta di essere stato il primo produttore ad ottenere una risoluzione atomica reale (non pseudo-risoluzione, frutto di particolari convoluzioni dei profili di punta e reticolo atomico del campione), il primo a realizzare un AFM in modalità Non Contact, ed il primo a sviluppare un MFM.
Dichiara d'utilizzare per i canali di pilotaggio del piezo lungo X, Y e Z DAC con risoluzione di 20 bit. Ha anche introdotto una modalità d'acquisizione definita Ultra-Fast AFM Imaging, che consente di ottenere immagini in 6 secondi su scansioni di spazzata pari a 100 mm, invece dei tipici 2-4 minuti. Il requisito necessario è avere immagini con bassa topografia: infatti la qualità di un'immagine dipende anche dallo slew rate del sistema di feedback, per cui la risposta del feedback ad una struttura alta 200 nm percorsa con una frequenza di scansione di 1 Hz equivale in qualità a quella ad una struttura alta 20 nm percorsa con una frequenza di scansione di 10 Hz. Non basta però aumentare la frequenza di campionamento per ottenere immagini molto più rapidamente, perché questo aumenta soltanto le non-linearità esistenti negli attuatori piezoelettrici. Sono richiesti: un controllo dei piezo in tempo reale, una tecnica di scansione interlacciata (che acquisisce lungo scansione sia forward sia backward, dimezzando i tempi per una singola acquisizione e dimezzando usura della punta e del campione), velocità di scansione non lineari, ma sinusoidali, che vanno a zero nei punti d'inversione, riducendo le distorsioni in queste zone.
Oggi gli SPM commercializzati da PSI sono essenzialmente cinque, quattro di una stessa famiglia, denominata Autoprobe, ed uno particolare, dedicato all'analisi di campioni biologici (come il BioScope DI), il BioProbe, particolarmente innovativo per le sue caratteristiche, anche per quanto riguarda l'aspetto esteriore.

4.5.2.1 Autoprobe

AutoProbe M5 è lo strumento SPM di utilizzo generale, che ad un prezzo accessibile (espressione del produttore) combina tutte le principali modalità d'analisi: Contact, Non Contact e Intermittent Contact AFM, LFM (o meglio SFFM). L'M5 è provvisto di un sistema di visualizzazione ottica dell'interfaccia punta-campione. Oltre alla linearizzazione software dell'isteresi presenta un hardware specifico di calibrazione e riduzione delle distorsioni (sistema closed-loop denominato ScanMaster). È in grado di accogliere campioni di dimensioni fino a 16" x 16" x 1", e presenta un sistema d'avvicinamento motorizzato per campioni di dimensioni massime pari a 8". La massima spazzata è 100 mm e la dinamica Z 7,5 mm. Il livello di rumore inferiore a 0,5 Å RMS. In via facoltativa è possibile dotare lo strumento di funzionalità EFM, MFM, SCM e SThM. Il microscopio è racchiuso in un particolare contenitore di grandi dimensioni per l'isolamento acustico. È anche disponibile un sistema di cella liquida opzionale.
L'Autoprobe CP è invece un sistema SPM modulare, ovvero non integrato, ugualmente integrabile con tutte le modalità d'analisi ma flessibile, in quanto inteso come dedicato alla ricerca. È molto maggiore la dotazione di strumenti d'analisi software (ProScan, Materials Analysis Package), mentre le dimensioni dei campioni sono limitate a 50 mm x 50 mm x 20 mm. Fondamentalmente le altre caratteristiche sono le stesse del M5; una particolarità è il sistema di posizionamento delle microleve, che può utilizzare levette standard anche di altri produttori, o particolari cartucce di microleve predisposte, con un sistema ad incastro di precisione, per un rapido posizionamento automatico dello spot laser sul dorso delle stesse.
L'Autoprobe SA è uno strumento stand-alone piccolo e compatto, che consente di non avere limitazioni di dimensioni e peso dei campioni. Si tratta di un AFM C (Contact) e NC (Non-Contact), e può essere comunque ampliato a tutte le altre modalità d'analisi. La spazzata massima è anche in questo caso 100 mm, e, come il CP, può utilizzare microleve predisposte e preallineate.
Infine l'Autoprobe VP2 è il primo SPM ad alta temperatura in UHV realizzato, sia STM (fino a 300 °C) che AFM (fino a 600 °C). Lo strumento fornisce funzionalità di riscaldamento sia diretto che indiretto del campione, fino ai 1200 °C, per un vero e proprio annealing. Lo scopo è lo studio di transizioni di fase tra fusione e cristallizzazione, della formazione di piani e difetti e della loro crescita. Lo strumento permette un rapido cambio delle teste STM/AFM, compatibili con la maggior parte delle camere UHV, essendo possibile il suo montaggio su una flangia standard da 8". L'STM comprende inoltre tutte le funzionalità spettroscopiche, come le caratteristiche I(V), dI/dV(V), dI/dV(X,Y) (immagini di conduttanza) e le curve "Forza"-distanza I(d), F(d).
Il VP2 utilizza uno stadio di traslazione a slitta inerziale per un preciso posizionamento in UHV, con ampiezza del passo impostabile da 100 a 700 nm. La risoluzione laterale dichiarata è di 0,03 Å e quella verticale di 0,008 Å. In questo caso tuttavia la massima spazzata è di soli 10 mm. Lo strumento è fornito di un sistema di smorzamento delle vibrazioni con una configurazione a doppia molla e con correnti magnetiche vorticose.
PSI dichiara di avere attualmente oltre 100 installazioni del VP2, mentre per gli altri strumenti non sono forniti quantitativi. Facendo tuttavia ipotesi di massima relative alla diffusione dei vari sistemi PSI, in confronto col sistema VP2 UHV, si possono ipotizzare i probabili valori alla base del risultato riportato in tabella come quota di mercato (basata sull'ipotesi di circa 1500 strumenti complessivamente venduti, contro i 4500 complessivi dichiarati da DI).

4.5.2.2 BioProbe

Il "BioAFM" di PSI si chiama BioProbe: vanta un'integrazione efficiente, semplice e facilmente risolubile di AFM e microscopio ottico. Non necessita di monitor differenziati, presenta un aspetto compatto e una forma planare che riduce la curvatura delle immagini, e consente l'acquisizione simultanea di topografia e fase. Si tratta, come per DI, di un AFM posto sulla piattaforma di un microscopio ottico invertito. In particolare è curioso, in questo caso, l'aspetto dello strumento: una specie di piatto con il supporto delle microleve in posizione periferica.



Fig. 4.18: il BioProbe PSI, posto sul microscopio ottico (a sinistra) e in una veduta particolare (a destra).


Non è dato sapere i particolari principi costruttivi alla base della realizzazione di una simile "testa". Anche in questo caso il posizionamento delle microleve sfrutta la cartuccia PSI predisposta per un rapido allineamento automatico. Nuovamente la spazzata massima disponibile è grande, essendo pari a 100 mm. Viene garantita una risoluzione laterale di 0,2 Å e verticale di 0,03 Å. Le funzionalità SPM disponibili sono praticamente l'intero range di tecniche: Contact, NC, IC, LFM (SFFM), PI qui denominata Phase Detection (Microscopy), cioè PD(M), FM, MFM. Riguardo alle caratteristiche del microscopio ottico vale in gran parte quanto già detto per il BioScope DI. Per il posizionamento del campione è disponibile una tecnica proprietaria, denominata QuickLock, che probabilmente costituisce un particolare sistema di bloccaggio in posizione predefinita analogo a quello definito per la microleva. Nella figura precedente è riportata la curiosa forma del BioProbe PSI.

4.5.3 TopoMetrix

TopoMetrix è un'azienda attiva da oltre 6 anni, che vanta la distribuzione di più di 500 strumenti. Oltre a STM/AFM produce anche SNOM, SEPM (Scanning Electrical Potential Microscope), SThM, MFM, EFM, AFM in NearContact, NC, PI, ed altri strumenti e/o modalità. Per lo sviluppo dei sistemi che realizza, TopoMetrix utilizza studi e brevetti della Stanford University, di AT&T e di IBM, oltre naturalmente ai risultati di pubblico dominio della comunità SPM internazionale. L'azienda è titolare di numerosi brevetti SPM, ed è stata segnalata come una delle 50 società in più rapido sviluppo negli Stati Uniti per i primi 5 anni d'esistenza. SNOM, SEPM e SThM sono tecniche per la prima volta realizzate su scala commerciale da TopoMetrix.
Il SEPM è in pratica un EFM (per la misura del potenziale elettrico) ed un SCM (per la misura di capacità) combinati ad un'immagine di topografia (ottenuta tramite AFM in NC o Periodic Contact, cioè Tapping o IC). Un potenziale AC viene applicato alla sonda; durante la scansione l'offset di potenziale richiesto per annullare la differenza di potenziale punta-campione genera una mappa di potenziale locale sulla superficie. Acquisendo simultaneamente la seconda armonica di questa tensione AC si può misurare anche la capacità. Applicazioni tipiche includono misure di drogaggio, di disomogeneità nelle barriere Schottky e di perdite di carica nei circuiti integrati.
Il NearContact è un terzo modo di operazione AC definito da TopoMetrix, che è possibile praticare oltre ai modi brevettati da IBM NC e PC (o IC). Ad esempio, in visualizzazione NC di vetro (isolante molto duro) facendo oscillare la microleva con un'ampiezza di ~2 nm vicino alla superficie ricoperta di uno strato di contaminante, la punta non si deteriora (e neanche il campione) e può durare indefinitamente, ma si rischia di visualizzare lo strato di contaminante. Se l'ampiezza è, ad esempio, di 20-100 nm, avviene sicuramente un contatto intermittente e la punta entra ed esce dallo strato di contaminante. La risoluzione è solo poco superiore al NC e per campioni duri la punta viene danneggiata, mentre per campioni molli vengono alterati questi. Nel NearContact in pratica la sonda viene fatta vibrare ad un'ampiezza limitata, di ~2 nm, in modo da effettuare, in pratica, un Tapping (IC) di ampiezza molto limitata, che rimanga all'interno dello strato di contaminante. In questa maniera si evita qualsiasi danneggiamento, e si ottiene la massima risoluzione reale possibile (TopoMetrix ha dimostrato questo con risultati sperimentali in una pubblicazione). Altri brevetti sono stati depositati per le tecniche TrueMetrix, un sistema di linearizzazione della scansione dei piezoelettrici, e Layered Imaging (LI), in pratica equivalente ad una versione estesa della misura del potenziale d'interazione superficiale per DI, registrato in corrispondenza di una qualsiasi distanza sulla curva Forza-distanza AFM tipica; si tratta cioè di una implementazione della tecnologia Force Slices, denominata qui Force Imaging Spectroscopy (FIS).
Per quanto riguarda gli specifici prodotti SPM, TopoMetrix commercializza i seguenti modelli: Aurora, che è uno SNOM combinato con un microscopio ottico; Lumina, che è in pratica un Aurora combinato con AFM, utilizzabile anche per l'analisi in liquido; ma i modelli di punta e più diffusi sono quelli delle serie Accurex e Explorer, di seguito descritti, (ed infine Observer e Discoverer).

4.5.3.1 Accurex

Accurex II è un SPM linearizzato per le attività di ricerca/sviluppo e produzione di semiconduttori. Consente di utilizzare come campioni wafer di Silicio di 8" di diametro, e presenta software evoluto (Step-and-Scan e SPMWizard) che consente un'analisi programmata su diverse zone, sulle quali è possibile posizionarsi anche grazie a strumenti come joystick e pulsanti di spostamento da tastiera del PC. L'aspetto, dalle immagini, è quello di una postazione completa (comprendente PC con monitor), come un DI Dimension 3100 o successivo.
Accurex II MS è il primo AFM per applicazioni di analisi di dischi ottici e delle matrici delle presse, utilizzato industrialmente per lo sviluppo e il controllo di qualità. Incorpora la tecnologia proprietaria Scanning Tip, che consente di eliminare le distorsioni nelle immagini. Comprende un microscopio ottico integrato 200x ed una particolare piccola camera di alloggiamento dei "campioni". Le modalità di funzionamento sono C, NC, NearC, Periodic C (o IC o Tapping), PI, FM e LFM. È basato su DSP (unità di controllo ECU-plus) e comprende un PC e una videocamera CCD. È disponibile col sistema di linearizzazione e correzione delle distorsioni relative alle scansioni sul piano (X,Y), per le quali è stato implementato un sistema di rilevamento e correzione in linea (closed-loop) denominato TrueMetrix.

4.5.3.2 Explorer

Si tratta innanzitutto di un SPM a scansione della sonda, cioè in cui la parte dell'interfaccia punta-campione spostata è la punta, cosa abbastanza inconsueta.
È disponibile in tre versioni, di cui la base è il modello Tip Scanning, che consente tutte le modalità AFM, non presenta praticamente limiti sulle dimensioni del campione da analizzare, e può funzionare anche da STM, proprio perché effettua la scansione della sonda e non del campione.
Un'altra variante è il Super Translator: questo presenta un posizionatore automatico del campione, Micro Pulse System, con range di 7 mm x 7 mm e risoluzione (passo) di ~0,03 mm. I campioni gestibili sono di dimensioni fino a 2" di diametro. Lo strumento è dotato di un sistema di sospensione della base in tre punti, fluttuante su un supporto di Viton (un polimero per guarnizioni molto resistente). Un sistema di micrometri permette il livellamento della base. Per il resto le caratteristiche sono le stesse del Tip Scanning.
L'ultima versione è la LifeSciences, indirizzata alle applicazioni biologiche, come è facile intuire: in pratica si tratta di un Tip Scanning integrato su un microscopio ottico invertito, e nel quale è possibile analizzare i campioni in cella liquida. Il microscopio ottico è 100x ed è inclinato a 45° rispetto al piano del campione, mentre la spazzata massima dell'AFM è di 100 mm, linearizzata.

Per concludere citiamo ancora altri due modelli:
In pratica, ricapitolando, anche TopoMetrix ha il suo AFM per applicazioni biologiche e almeno uno strumento che, nella tabella riassuntiva riportata alla fine della presente sezione, è stato classificato come "per grandi campioni", inteso per l'impiego su wafer di semiconduttori o, in questo caso, anche dischi ottici in maniera più specifica. Nella figura seguente è presentato quest'ultimo strumento, l'Accurex II MS, col suo involucro dall'aspetto curioso.



Fig. 4.19: il sistema SPM a grandi spazzate (per wafer di semiconduttori) Accurex II MS, di TopoMetrix.


4.5.4 Omicron

Omicron Vakuumphysik GmbH è un'azienda che si occupa non solo di SPM, ma di tutti gli strumenti e le tecnologie relative all'analisi delle superfici. Fondata nel 1984, è stato il primo produttore a realizzare un STM UHV commerciale. Quindi in particolare si è specializzata negli SPM in UHV, vista anche la sua vocazione di strumentazione per l'analisi delle superfici in generale (produce, tra gli altri, strumenti XPS, SEM LEED e FIM). La maggior parte degli strumenti SPM UHV Omicron è dotata di camere UHV "bolt-on", cioè preconfezionate attorno alla testa, e predisposte per un facile ed immediato montaggio. Le principali caratteristiche degli strumenti commercializzati sono di seguito descritte.

Fig. 4.20: il Variable Temperature UHV SPM di Omicron. È una testa SPM incastonata nel tipico scheletro di una struttura inseribile in una camera a vuoto.


Omicron produce inoltre un particolare sistema proprietario di controllo delle teste SPM denominato SCALA, che presenta una struttura particolarmente modulare grazie al potente linguaggio grafico IDL, e consente il pilotaggio dei piezo ai minimi livelli di rumore ottenibili.
Un altro brevetto riguarda il microposizionatore UHV piezoelettrico MS5 e la relativa elettronica di controllo, che garantisce precisioni di spostamento in passi riproducibili dai 40 ai 400 nm, oltre alle funzionalità STM spettroscopiche, ed è dotato di un software di nanolitografia ed elaborazione delle immagini.
Volendo fare un commento finale, nel parco strumenti di Omicron risulta evidente la mancanza di un "BioSPM", mentre è presente il consueto "SPM per campioni grandi", dedicato allo studio di wafer di semiconduttori. È chiaro che il primo effetto è il risultato dello sbilanciamento d'interesse dell'azienda verso l'UHV, assai più adatto a studi di materiali che non di campioni biologici.

4.5.5 Burleigh Instruments

Burleigh Instruments, fondata nel '72, è un'azienda che si occupa non solo di SPM ma anche di laser, analisi delle superfici in genere e nano-posizionamento. Riguardo a quest'ultima competenza sembra uno tra i più probabili sviluppatori commerciali di sistemi SPM di nano-manipolazione, direzione nella quale potrebbero risultare utili i tentativi di applicazione alla microscopia a scansione delle reti neurali a fini di microlavorazione assistita. Attualmente sembrerebbe che il dipartimento R&D (Research and Development cioè Ricerca e Sviluppo) dell'azienda non abbia ancora recepito (o quantomeno non sia riuscita a sfruttare commercialmente) questo potenziale incontro tra le due tecnologie, giacché al relativo sito Web, alla pagina sul nano-posizionamento, si parla ancora solo dei posizionatori motorizzati PZT InchWorm. Si tratta, tra l'altro, di un valido brevetto proprietario che consente di spostare campioni con precisione del nanometro su distanze di centinaia di millimetri.



Fig. 4.21: l'elementare ed economico AFM stand-alone Vista di Burleigh Instruments.


Come SPM Burleigh commercializza i seguenti modelli:
Per profili con strutture troppo estese per l'analisi con AFM, Burleigh realizza anche un profilometro ottico in Non Contatto (denominato New Horizon) a interferometria Michelson.

4.5.6 Quesant Instruments

L'azienda, fondata nel 1972, si presenta con un solido background soprattutto nelle applicazioni di microcomputer. L'obbiettivo primario a cui si dichiara esplicitamente ispirata, come già in parte Burleigh, ` la realizzazione di strumenti che siano competitivi qualitativamente in alcune specifiche utilizzazioni, ma soprattutto economici: potremmo dire quindi lo sviluppo di strumenti "low end".
Gli strumenti prodotti da Quesant sono essenzialmente tre, di cui uno in due versioni di poco differenziate: Mancano dati circa la diffusione di questi microscopi SPM, per cui il posizionamento dell'azienda, come quota di mercato, è stato effettuato, come d'altronde per NT-MDT, sulla base di considerazioni relative alla generica fama che si ha del produttore, associata all'estensione temporale della sua presenza sul mercato.

4.5.7 Molecular Imaging

Al relativo sito Web, peraltro assai dovizioso di particolari, manca qualsiasi tipo d'informazione relativa al background dell'azienda. Si tratta comunque di una realtà che basa la sua attività totalmente sulla realizzazione di sistemi SPM e relativi accessori.
Lo strumento commercializzato è in pratica soltanto uno, denominato PicoSPM, ma questo costituisce una piattaforma di base che, con l'aggiunta di parecchi moduli accessori, si trasforma in un AFM/STM elettrochimico ad atmosfera controllata. Tale fatto evidenzia la vocazione dello strumento, che è esplicitamente dedicato ad un utilizzo di interesse chimico: si dichiara infatti adatto all'analisi di tutti i fenomeni che avvengono all'interfaccia chimicamente reattiva tra diverse fasi (solido/liquido o solido/vapore). A questo scopo viene resa disponibile una cella AFM per misurazioni in fluido, attrezzata per l'utilizzo come cella elettrochimica. Inoltre è espressamente riconosciuta l'importanza della preparazione e del trattamento del campione durante la fase di analisi, per cui è stato progettato un apposito contenitore di campioni posizionato in prossimità della zona di analisi e che consente la rapida sostituzione del campione mantenendo il controllo dall'ambiente nel quale questo viene trasferito. I campioni possono essere preparati in un glove-box ("scatola a guanti", come un'"incubatrice", con guanti di gomma attraverso appositi oblò che consentono di manipolare l'interno senza entrare in contatto diretto), e quindi introdotti nella camera d'analisi, dove possono essere controllati parametri come la presenza di un gas inerte ed il potenziale elettrico.
MI realizza solo la testa e comunque le parti meccaniche dello strumento, mentre il modulo di elettronica di controllo può essere acquistato in combinazione o è possibile altrimenti impiegare moduli compatibili con gli standard Nanoscope di DI, Autoprobe di PSI, o Topometrix.
La commutazione da AFM a STM e viceversa viene operata sostituendo lo scanner, che costituisce un piccolo blocco cilindrico unico col sistema di rivelazione a leva ottica, nel caso dello scanner AFM (contiene cioè tubo piezoelettrico, laser, e anche un sistema di allineamento automatico del laser). Tra l'altro questo involucro è a tenuta stagna, e consente l'impiego in qualsiasi ambiente. Le massime spazzate ottenibili sono 50 micron con l'STM e 30 con l'AFM. In entrambi questi casi limite il massimo livello di rumore dichiarato è pari a 0,5 Å in verticale (lungo Z) e 5 in orizzontale (sul piano (X,Y)).
Altri accessori disponibili sono una piccola camera ad atmosfera controllata (PicoApex), varie celle per il controllo della temperatura, e una economica camera d'isolamento dalle vibrazioni acustiche e degli edifici (PicoIC), oltre a diversi sistemi di visualizzazione ottica dell'interfaccia sonda-campione (tramite microscopio stereo e/o videocamera CCD).
Per il resto non risultano chiaramente altre modalità di utilizzo dello strumento (cioè sembrano mancare funzioni NC-AFM e IC-AFM, e spettroscopia STM, ma queste dipendono probabilmente dall'elettronica di controllo che si decide di abbinare: con i controller standard consigliati dovrebbero essere disponibili tutte le più consuete funzionalità operative).



Fig. 4.23: il PicoSPM di Molecular Imaging, un SPM universale a seconda degli accessori.


Inoltre viene descritta una nuova modalità di scansione: il Magnetic A/C mode (MAC), adatto alla visualizzazione in IC in liquido. Si tratta di un metodo di modulazione IC della deflessione della microleva pilotato direttamente dal campo magnetico in cui questa è immersa. Eliminando ogni meccanismo materiale di oscillazione, vengono sostanzialmente migliorati i risultati soprattutto per l'analisi in liquido. L'aumento di controllo consente, tra l'altro, di operare ad ampiezze d'oscillazione (e quindi forze di Tapping) ancora minori del consueto, eliminando del tutto la deformazione del campione.

4.5.8 Nano Technology - Molecular Device Technology

Forse più nota attraverso la sua sigla, NT-MDT, fondata nel 1991 con lo scopo di sviluppare nanotecnologie molecolari in genere, è un'azienda, leader in Russia per gli strumenti SPM e per i trough ("vasche") Langmuir-Blodgett (tecnica di deposizione dei campioni organici in film, cioè pellicole, sottili a livello molecolare), che costituisce una divisione figlia della R&D di MDT consulting, i cui interessi ed attività spaziano dai microscopi a scansione alla aeronautica. In particolare nel campo SPM, oltre a realizzare strumenti NT-MDT commercializza anche sonde e campioni standard di calibrazione (griglie microfabbricate e Grafite HOPG).



Fig. 4.24: il Solver P4-SPM-MDT. Oltre alla sospensione elastica è fornita anche una copertura che scherma la testa dalle vibrazioni acustiche altrimenti trasmesse attraverso l'aria.


La società produce attualmente tre modelli di SPM: essenzialmente due SPM "multimode", a due livelli di prestazioni ben differenziati, Solver P4 e P47, ed uno strumento per ultra alto vuoto, Solver P7.

4.5.9 IBM/Veeco Instruments

L'azienda è attiva in generale nel campo di tutta la strumentazione da laboratorio per l'analisi e per la ricerca relative alla fabbricazione di componenti di microelettronica. Soprattutto recentemente, all'incirca negli ultimi quattro anni, ha avuto un'espansione notevole di oltre il 40% in vendite e l'80% in fatturato. Questo anche grazie ad una solida base di clientela, che vede come utenti consolidati società del calibro di Seagate e Quantum e IBM. Da questi dati si capisce il tipo di SPM nella cui realizzazione Veeco è specializzata: si tratta di un AFM operante in aria, sostanzialmente come profilometro, per l'analisi di campioni estesi (per l'appunto hard disk, e anche wafer di semiconduttori). Riguardo al rapporto con IBM, va osservato che Veeco è in realtà una spin-off (azienda derivata) di IBM: non a caso lo strumento di cui sopra, denominato Dektak SXM-320, è stato di fatto sviluppato nei laboratori IBM di Boca Raton.



Fig. 4.25: un operatore al lavoro col Dektak SXM-320. Poiché lo strumento non è di per sé abbinato ad una camera UHV, per le delicate funzioni cui è dedicato (analisi di hard disk e/o wafer di semiconduttori) la manipolazione dei campioni va effettuata con le dovute precauzioni.


Questo tipo di strumento, battezzato dall'azienda con la sigla Critical Dimension AFM (CD-AFM), è dotato di funzionalità estremamente particolari, non meglio specificate (indicate come modalità CD, HD e 1D), dedicate alla misurazione di caratteristiche come rugosità, ampiezza, profondità e pendenza degli step topografici, per la prima volta fornite con la precisione adeguata alle necessità del caso, senza bisogno di laboriose preparazioni dei campioni o sezionamenti altamente distruttivi. L'alto grado di prestazioni raggiunto è dovuto anche al particolare disegno delle levette utilizzate, che sono senza punta e vengono puntate in direzione perpendicolare alla superficie di base del campione e fatte oscillare lateralmente. È grazie a questa particolare modalità di scansione, ed anche alla forma angolosa delle estremità laterali inferiori delle leve, che è possibile risolvere pareti verticali con fedeltà eccezionale, senza il consueto effetto di stondamento che si ha con le microleve AFM standard.
In combinazione con questo particolare AFM esistono tutta una serie di profilometri di diversa natura, sempre appartenenti ad una famiglia denominata Dektak, che sono attualmente realizzati da Veeco per le esigenze più disparate.


Nome dell'azienda Sito Web (http://) Sede principale Rivenditore per l'Italia N° uffici vendite %
appross.
mercato
N° modelli Modello più diffuso AFM STM SNOM Mod. comb. Accessori
C NC IC/PC/
Tapping
EFM MFM SCM SPECM
/F-d
cella liq. bio. UHV gran. camp. gran. Spazz. Std. Spectr. UHV
USA EU Altri Std. LFM Std. PI hw sw
Digital Instruments www.di.com,
www.DiGmbh.de
(europeo)
Santa
Barbara, CA,
USA
L.O.T.-Oriel
Italia,
Milano
5 8 16 50 5 Nanoscope
-
MultiMode
 
Park Scientific
Instruments
www.park.com Sunnyvale,
CA, USA
Park Europa,
Carouge, CH
2 1 4 15 5 Autoprobe
-M5/CP
     
TopoMetrix Corporation topometrix.com Santa Clara,
CA, USA
TopoMetrix
Europe
Headquarter,
Darmstadt, DE
2 5 4 10 9 Explorer-
ST/TS/LS
       
Omicron
Vakuumphysik
GmbH
www.omicron-
instruments.com
Taunusstein,
DE
Omicron
Vakuumphysik
GmbH,
Roma
2 5 6 5 9 STM 1/
Beetle SPM
                         
NT-MDT www.ntmdt.ru Mosca, RU - 1 - 10 4 4 Solver P4-
SPM-MDT
             
Burleigh
Instruments
www.burleigh.
com
Burleigh
Park Fishers,
NY
dB Electronics
Instruments srl,
Milano
1 16 8 4 4 VISTA/
METRIS
                               
Quesant
Instrument
Corporation
www.quesant
.com
Agoura Hills,
CA, USA
? 1 ? ? 4 4 Q-Scope
/Resolver
                                   
Molecular
Imaging
www.molec.com Phoenix, AZ,
USA
Ute Schmidt,
DE
10 8 6 4 1 PicoSPM                    
IBM/Veeco www.veeco.com Plainview,
NY, USA
Veeco GmbH,
Monaco, DE, o
Veeco S.A.,
Dourdan, F
3 3 4 2 1 Dektak SXM                                    

Fig. 4.26: riepilogo delle caratteristiche degli SPM commerciali rinvenuti su Web e delle relative case produttrici.


Commentando la tabella di cui sopra, possiamo dire che a corredo delle caratteristiche dei vari strumenti si è cercato di produrre anche alcune informazioni specifiche relative all'azienda che li realizza, per consentire di identificarla ed inquadrarla meglio all'interno del mercato attuale. Oltre ai dati identificativi, come nome, sito Internet ed eventuale contatto in Italia, si è tentato di stimare l'importanza dell'azienda in questo campo, basandosi sul numero di rivenditori e di modelli SPM inseriti in linea di produzione, e deducendo la porzione approssimativa di mercato posseduta, a partire dalla quantità relativa di strumenti venduti. Per queste informazioni ci si è affidati, quando disponibile, al dato fornito dallo stesso produttore, che va preso col beneficio d'inventario; lo stesso vale per le proprietà attribuite a determinati strumenti, in particolare per quanto riguarda le soluzioni tecnologiche proprietarie. Sarebbe interessante, oltre all'approfondimento delle funzionalità di alcuni strumenti, disporre dei reali dati di fatturato delle aziende relativo all'attività di produzione di strumenti ed accessori SPM, sia assoluto che relativo, rapportato cioè al fatturato totale (alcune aziende sono infatti attive anche nella realizzazione di altre strumentazioni non SPM). Tuttavia, come si può facilmente comprendere, nella maggior parte dei casi le aziende non rendono disponibili pubblicamente queste informazioni. Lo stesso dicasi per l'attuale attività di ricerca e sviluppo volta alla realizzazione di nuovi strumenti e/o caratteristiche aggiuntive: essendo un campo ad elevata competizione, nessun dato viene fornito circa l'attuale direzione di tali studi all'interno delle varie aziende.
Di fatto, nella lista che è risultata dalla nostra ricerca sono affiancate alcune aziende molto grandi ed altre a rilevanza poco più che locale, ma questa differenza è evidenziata dai dati di cui sopra. Inoltre la lettura dell'elenco nella tabella riassuntiva è facilitata dal fatto che le aziende sono elencate praticamente in ordine d'importanza decrescente, sempre relativamente al valore numerico dei dati, dedotti o intuiti, di cui si è detto sopra.
In particolare, per ritornare alle informazioni tecniche sugli strumenti disponibili sul mercato, è stato necessario proporre una classificazione delle varie caratteristiche che prevede diversi livelli di distinzione: spesso, infatti, all'interno delle stesse presentazioni dell'azienda caratteristiche di varia natura relative agli strumenti SPM vengono descritte insieme, con l'effetto che alla fine il lettore delle brochure pubblicitarie risulta più confuso che informato. Questo inconveniente è poi facilitato, a volte, anche dalla tendenza di molti produttori a denominare la stessa modalità di utilizzo dello strumento con diversi nomi proprietari associati a brevetti, che tuttavia presentano lo stesso significato: è il caso, eclatante, del Tapping Mode, da alcuni chiamato Intermittent Contact o ancora Periodic Contact. Si è cercato di fare ordine in questo campo, distinguendo innanzitutto gli strumenti in base alla natura fondamentale dell'interazione, e cioè essenzialmente se AFM o STM, e riportando anche gli strumenti di tipo SNOM, per quanto si possa dire che si tratta di SPM solo se intesi in senso lato, in quanto piuttosto assimilabili a microscopi di natura ottica. All'interno poi della stessa categoria fondamentale di strumento, ad esempio AFM, si è posto un livello di distinzione generato dalla modalità di scansione, che determina il modo in cui la sonda viene spostata, relativamente al campione, sia sul piano (X,Y) di acquisizione che relativamente alla terza dimensione, Z, ad esso verticale; cioè si è differenziato lo strumento in base alla traiettoria complessiva, per così dire, percorsa dalla punta sul campione, ovvero alle superfici di spostamento della punta (o del campione, trattandosi di un moto relativo). Infine, all'interno di una determinata modalità di scansione si è distinta la modalità d'acquisizione dei dati. A parità di scansione, infatti, in taluni casi possono essere acquisite informazioni relative ad interazioni di diversa specie simultaneamente presenti all'interfaccia punta-campione: è il caso, ad esempio, della misura di topografia (cioè essenzialmente deflessione della microleva) e forza laterale o attrito (torsione della microleva), entrambe registrabili durante l'operazione dell'AFM in modo di contatto. L'utilizzo di una sigla completamente diversa e a sé stante per l'acquisizione del segnale di forza laterale, LFM (Lateral Force Microscope), fa infatti pensare ad uno strumento completamente diverso e comunque che possa acquisire soltanto quell'informazione particolare, mentre ad un occhio più esperto risulta evidente che in realtà si tratta solo di un'informazione ulteriore che può essere rilevata insieme a quella di profilo topografico del campione mediante uno stesso AFM di contatto quasi standard, a patto d'inserire una modifica al sistema di rivelazione della deflessione (cioè passare da una a due coppie di fotocelle).
Tale panoramica ci ha consentito di porre lo sguardo sullo stato dell'arte complessivo delle tecnologie SPM attualmente disponibili sul mercato. Occorre tenere presente che gli strumenti commercializzati rappresentano il livello attuale del mercato, cioè delle tecnologie testate come funzionalità ed interesse generale d'utilizzo, e non della ricerca più avanzata; come già accennato infatti non è ovviamente possibile, almeno attraverso i comuni canali d'informazione, reperire particolari informazioni esplicite relative ai possibili futuri sviluppi delle tecnologie SPM. Con ciò s'intende dire che un generico laboratorio di ricerca a livello di università o reparti R&D di grandi aziende sarà probabilmente, per certuni aspetti, maggiormente proiettato verso il futuro, inteso come nuove applicazioni e/o nuove soluzioni dei problemi esistenti, di quanto non risulti dagli strumenti disponibili sul mercato; questi, per altro verso, devono invece presentare livelli di affidabilità e facilità d'utilizzo assai superiori dei prototipi sperimentali sviluppati dai centri di ricerca. Ciò non significa naturalmente che le grandi aziende di produzione di SPM non dedichino anch'esse notevoli risorse al campo della ricerca e dello sviluppo; tuttavia le informazioni relative non sono di dominio pubblico, e lo diventano solo al momento della presentazione di un nuovo strumento finito e testato.
La tabella mostrata inevitabilmente non individua alcune differenze "fini" riguardo sia alle varie situazioni all'interno delle varie aziende sia ai vari modelli prodotti dalle aziende più prolifiche; d'altronde consente d'avere una visione d'insieme che facilita il rapido confronto tra le realtà oggi esistenti. Dettagli relativi alle singole situazioni specifiche sono stati forniti nel corpo del testo della presente sezione, nella quale abbiamo passato in rassegna le varie aziende, di nuovo nell'ordine d'importanza decrescente "presunto" (in qualche misura soggettivo ed opinabile), analizzando man mano le realtà di sempre minor peso, ed evidenziando di volta in volta solo eventuali differenze sostanziali relative agli strumenti distribuiti.
Per finire, in questa ottica, oltre alle aziende sopra analizzate compiutamente che, seppur in misura diversa, godono di una sensibile presenza sul mercato, ricordiamo altre realtà minori, degne comunque d'essere quantomeno menzionate: Altre aziende ancora collegate al mercato SPM, che invece producono o commercializzano essenzialmente solo sonde e/o campioni di riferimento per la calibrazione, sono infine le seguenti:

4.6 Futuri sviluppi AFM/STM

Abbiamo appena analizzato lo stato dell'arte della tecnologia SPM commerciale, attraverso i prodotti disponibili sul mercato. Vogliamo qui dare qualche cenno relativo a due tra i maggiori campi di studio attuali di nuove applicazioni e/o tecnologie avanzate al campo della microscopia a scansione a sonda, sui quali si sta molto lavorando in questi ultimissimi anni al front-end della ricerca. Essi sono l'applicazione di reti neurali e la progettazione di nuove sonde al fullerene.

4.6.1 Applicazione delle reti neurali

Innanzitutto definiamo l'oggetto del presente paragrafo. Le Reti Neurali (o Neuronali) Artificiali, nella denominazione più completa (precisata per distinguerle dai neuroni "veri", biologici), altro non sono che algoritmi, implementati via software, che cercano di "simulare" in qualche modo i meccanismi di apprendimento del cervello di "animali" intelligenti, tra cui l'uomo. È in un certo senso un diverso approccio alla riproduzione dell'intelligenza rispetto al campo, ben distinto, degli studi sull'Intelligenza Artificiale (IA). Quello che succede in noi tramite l'esperienza, è che le cellule cerebrali, che fanno parte del sistema nervoso e sono quindi neuroni, si sviluppano e si collegano all'interno del cervello in modi diversi, dando origine alla memoria, che ci dice in seguito come comportarci quando si ripresenterà una situazione analoga già vissuta, alla quale quindi siamo, in un certo senso, già "allenati", o consentendoci comunque d'interpretare nuove situazioni in base alle affinità con quelle affrontate precedentemente.



Fig. 4.27: esempio di rappresentazione grafica di una semplice rete neurale con 2 neuroni (le unità circolari) nello "strato" di Input e altrettanti nello strato di Output. In questo caso esiste solo uno strato intermedio ("hidden", nascosto) di neuroni, anche se in generale se ne hanno diversi, anch'esso di 2 unità. Dobbiamo pensare che ad ogni connessione tra un neurone i e uno j corrisponde un coefficiente numerico che ne esprime la forza, il peso wij.


In pratica è semplicemente la "morfologia" di questa fitta rete di neuroni nel cervello che, "attivando" uno o più neuroni a partire da un altro ad essi collegato a monte, dà origine ad un certo processo di elaborazione del cervello. Questa "attivazione" è legata alla trasmissione di segnali elettrici attraverso le connessioni (sinapsi).
Allo stesso modo delle elementari unità di calcolo all'interno del software di rete neurale artificiale (neuroni artificiali) possono essere collegate in una struttura ramificata che dice al sistema complessivo di dare un certo Output (uscita) come risultato di un certo stimolo di Input (ingresso). Laddove un sistema fisico o di qualsiasi tipo (elettronico, biologico, etc.), descrivibile in questi termini (Input-Elaborazione-Output) presenti tra i due termini estremi dell'informazione un sistema di elaborazione e collegamento tra essi che non si riesce a comprendere in maniera né analitica (cioè tramite semplici formule matematiche esatte) né approssimata tramite calcoli al computer di diverso tipo, è possibile associare al sistema una rete neurale che lo modelli, e adattare i collegamenti tra i vari neuroni ipotizzati (collegamenti più o meno forti in base a coefficienti detti "pesi") per fare in modo che la rete così realizzata simuli bene il nostro sistema. Chiaramente per determinare i pesi, e quindi la vera struttura della rete neurale, occorre poter conoscere come si comporta il sistema reale in un certo numero di casi significativi, per potere così "allenare" la rete neurale, cioè procedere ad impartirle l'insegnamento che le consente di "apprendere": è il processo preventivo che si chiama di training, e che deriva da un insieme di casi (record) di una tabella di dati (database) che collegano un Input noto ad un Output noto.



Fig. 4.28: parametri di funzionamento di un SPM selezionati per l'utilizzo nella rete neurale, e relativo ruolo (Input/Output). Per la definizione e la discussione della scelta tra tutti i parametri in base all'importanza, si veda il paragrafo 3.4.3. Il parametro d'Input "Materiale" non è funzionale al sistema, ma solo alla distinzione dei campioni da parte dell'utente umano.


Tra i problemi tipici impostabili con reti neurali è la riproduzione del funzionamento di alcuni semplici sistemi elettronici, come filtri o gruppi di filtri sensibili in frequenza, quali quelli utilizzati nei controlli di applicazioni, altrimenti effettuati anche con sistemi di feedback come il PID (vedi paragrafo 3.1.3). Altre applicazioni più critiche in cui storicamente le reti neurali sono state applicate con successo sono le categorie di problemi che coinvolgono il riconoscimento di determinati elementi (oggetti o simboli) da parte dei computer; ad esempio il riconoscimento di caratteri di scrittura (character recognition), anche manoscritta, della voce umana (speech recognition, esistono già cellulari in commercio che le utilizzano), o di specifiche caratteristiche (ad esempio case abusive, installazioni militari, terreni coltivati etc.) in immagini geografiche rilevate da satellite (telerilevamento cioè remote sensing), o comunque, più in generale, il campo detto pattern recognition, cioè il riconoscimento di determinate strutture all'interno di immagini (ad esempio per la compressione in linea dei file grafici).
Ritorniamo ora al nostro campo d'interesse, la microscopia SPM, e facciamo un passo indietro alla sezione 3.4 che avevamo concluso, con riferimento allo studio dell'operazione SPM di "tuning", ovvero ottimizzazione dei parametri di scansione, dicendo che questo problema poteva essere caratterizzato in termini dei vettori di Input "Campione" e di Output "Impostazione ottimale". Questa operazione di determinare i migliori parametri di funzionamento (quelli che forniscono le immagini di maggiore qualità) partendo da alcune caratteristiche del campione in esame è quella che normalmente compie l'utente dello strumento SPM, e che riesce più o meno bene e, soprattutto, rapidamente e in maniera "indolore" (ad esempio senza rottura della sonda o del campione, se delicato) in base all'abilità, all'esperienza, alla conoscenza, in una parola, dell'utente stesso nella specifica tecnica SPM.


(Materiale) Durezza
D
Adesività
A
Spazzata
S
Dislivello max
atteso DZ
Rugosità
attesa <R>
P I Fv /
IT
fscan
... ... ... ... ... ... ... ... ... ...
... ... ... ... ... ... ... ... ... ...
... ... ... ... ... ... ... ... ... ...

Fig. 4.29: struttura del database di training della rete neurale, (modello "statico").


La struttura del training set è quella tipica del database relazionale, cioè una tabella come la precedente, in cui le colonne rappresentano i campi dei record (tranne ovviamente la prima riga, che contiene le relative intestazioni) e in cui le righe rappresentano i record stessi (la minima unità d'informazione completa del database). La tabella può essere pensata come realizzata e compilata in un software dedicato di database o anche in un semplice foglio di calcolo elettronico. Nella raffigurazione attuale, sotto la riga d'intestazione sono riportate alcune righe vuote, destinate a contenere ciascuna un record (pattern) del training set. Inoltre una colonna di separazione divide i campi di Input (a sinistra) da quelli di Output della rete neurale (a destra).
Da questa tabella si evince che la "struttura del training set" così definita risulta adeguata ad un trattamento con rete neurale, essendo previsto un numero di variabili di output (4, Materiale è solo descrittiva) inferiore al numero di variabili di input (6), caso che risponde a criteri generali di buona impostazione delle reti neurali. Questa situazione dovrebbe infatti garantire una identificazione sufficientemente precisa dei pattern, e fornire alla rete tutte le caratteristiche necessarie per una corretta caratterizzazione del sistema da modellizzare (nel nostro caso l'insieme testa SPM+modulo di feedback).
Si possono inoltre avanzare anche considerazioni circa le dimensioni del training set, che dipendono dal numero di variabili di Input della rete neurale e dal numero di valori tra cui queste possono variare, (che andrà stabilito dagli esperti SPM in base allo specifico strumento); occorre cioè determinare una dimensione almeno indicativa della quantità di informazioni (numero di record) minima necessaria per poter modellare il sistema in fase di training. A tale scopo è opportuno precisare che due record saranno "diversi" (cioè indipendenti e non duplicati) quando almeno uno dei parametri di Input presenti un valore diverso da quello dell'altro, anche a parità di Materiale del campione.
Ad esempio, per tutti i parametri SPM (e quindi le variabili di rete neurale, sia in Input che in Output) si può decidere di suddividere il range di valori possibili in intervalli di valori (fasce), in modo che sia significativo fare distinzione solo tra valori che cadono in diversi intervalli (in pratica si tratta di una clusterizzazione, ovvero raggruppamento in cluster, dal punto di vista della rete neurale), e poi di rappresentare ciascuna fascia, almeno per le variabili di Input della rete, con un valore intermedio rappresentativo per il parametro corrispondente da impostare ogni volta che ci si riferisce ad essa. Questo perché molti parametri possono spesso essere settati sullo strumento con una finezza che da un lato è superiore alla stessa indeterminazione sperimentale, dall'altro si ritiene anche inefficace agli effetti di una variazione del risultato degli esperimenti SPM (qualità delle immagini).
Combinando i vari valori di fascia stabiliti per le variabili di Input significative ai fini dell'identificazione di un record (tutte tranne Materiale), si osserva che il set di possibili "campioni" teoricamente differenti ha dimensione dell'ordine del migliaio; (ad esempio, se i seguenti sono i numeri di fasce per i parametri D, A, S, DZ, , 3,3,7,5,5, si hanno 3x3x7x5x5=1575 combinazioni). In realtà, partendo, per la scelta dei campioni da inserire nel training, dai campioni SPM di interesse comune, è possibile compilare una lista dell'ordine di una ventina di voci, non di più, (queste corrispondono, in pratica, ad un particolare valore del campo Materiale). È chiaro, tuttavia, che su alcuni parametri, come le dimensioni della spazzata, è possibile giocare a piacimento, nei limiti in cui questi sono significativi, per aumentare il numero di "campioni" ottenibili da un medesimo Materiale. Quello che è importante, comunque, non è in assoluto ricoprire con i campioni individuati lo spazio euclideo corrispondente (vettore "Campione" meno Materiale), ma ottenere, all'interno di questo spazio, campioni il più possibile distanti tra loro. Si presuppone infatti che campioni "vicini" darebbero luogo praticamente allo stesso Output della rete, e non fornirebbero quindi un grande apporto all'addestramento. Pertanto se ci si limita a considerare gli estremi (minimo e massimo), e cioè due valori per ciascuna variabile, si hanno 25=32 combinazioni; questo numero può essere considerato in qualche modo una misura della reale dimensione minima del training set. Potrebbe sembrare un numero eccessivamente basso rispetto alle esigenze di un qualsiasi addestramento di una rete neurale, ma occorre considerare al proposito le peculiarità del problema in questione, per cui, ad esempio, per ciascun Materiale, non ha molto senso considerare tutti i vari valori dei parametri chiave di Input in maniera fine a se stessa, cioè al solo scopo di costruire l'insieme di combinazioni più vasto possibile, ma da un punto di vista pratico è più ragionevole limitarsi a considerare le variazioni di reale interesse nella casistica delle misure AFM, sia per quanto riguarda il tipo di campioni, sia per le modalità di acquisizione. Sarebbe puramente ozioso cercare a tutti i costi di compilare il maggior numero possibile di combinazioni di valori dei parametri caratteristici, senza occuparsi di mantenere un vincolo di significatività e interesse relativo ai campioni scelti.
Per quanto riguarda la topologia della rete, sembra che il tipo di rete neurale più adatta possa essere una Backpropagation, mentre facendo una prima grossolana ipotesi di un numero n di neuroni nello strato nascosto, dalla seguente formula pratica si ha una stima del numero minimo di record da utilizzare per il training:

ni x nh + nh + no  x nh + 4 = 11 nh + 4,

dove ni, nh e no sono i numeri di neuroni dello strato di Input, Nascosto (Hidden) e di Output, rispettivamente, e gli addendi rappresentano il numero di pesi che collegano gli strati Input-Nascosto e Nascosto-Output, il primo e il terzo, e i numeri di soglie sullo strato Nascosto e sullo strato di Output, il secondo e il quarto, rispettivamente (le soglie sono i valori oltre i quali il neurone è "attivato"). Considerando che dev'essere nh  ni = 6, si ha come numero minimo di record per il training set un valore pari a 70. In realtà ne servirebbero almeno il doppio, e poi altrettanti da usare alla fine del training come test set (un insieme di valori di prova su cui verificare il funzionamento finale della rete, che però potranno essere campioni anche molto simili a quelli del training set).
Per arrivare dalla trentina di record "reali" ai 100-200 richiesti come minimo per consentire alla rete neurale di generalizzare, è possibile, come accennato in precedenza, "giocare" sugli intorni dei valori delle variabili di Input dei record noti valutati, "moltiplicandoli" (facendoli cioè proliferare) variando il valore di uno o più (eventualmente tutti) parametri di Input in un intorno sufficientemente ristretto del valore "vero", sperimentale. Ad esempio generando 3 record diversi (con gli stessi Output) che, per il parametro d'Input P, vedano, invece che il solo valore P0, anche, in alternativa, i valori P0-x% e P0+x% (con x ad esempio 5 o 10), si possono moltiplicare i record reali fino a un fattore 3 per ciascun parametro d'Input, cioè 35=243x. Se ne servono ancora di più, si può decidere di generare 5 "nuovi" valori da ciascuno, (ad esempio prendendo anche P0±2y% e P0±y%, con y =3 o 5). Non si tratta di un trucco scorretto: fermo restando che i record "fisici", cioè con reale significato, sono solo quelli iniziali (ed è per questo che si impone il vincolo di piccola variazione nell'intorno dei valori reali, tipo P0, in modo che i nuovi record possano corrispondere ancora all'unico record "fisico" ottenuto), la "generazione" degli altri è soltanto volta a soddisfare un vincolo matematico imposto dallo strumento che si utilizza per analizzare i primi.
Il sistema di rete neurale applicato a un SPM appena descritto è quella che viene talvolta denominata implementazione "statica" della rete neurale, in cui il set di dati di training della rete viene acquisito una volta per tutte in una fase preliminare, precedente l'utilizzo della rete addestrata. In realtà si sta pensando anche ad un sistema di rete neurale adattiva (o adattativa), che "in linea", durante una prima scansione e analisi preliminare di un campione, provveda a determinare i pesi della rete (cioè "autoallenarsi") per quella specifica immagine (o meglio, campione). In questo caso la determinazione dell'immagine migliore non sarebbe fatta dall'operatore umano ma dal sistema computerizzato che pilota l'SPM, e quindi dovrebbe utilizzare una definizione "matematica" di qualità dell'immagine, l'Errore di cui si è trattato nella sezione 3.4.

4.6.2 Sonde dell'ultima generazione: il Fullerene

Negli ultimi anni l'utilizzo di sistemi SPM, un tempo ritenuti soltanto strumenti di caratterizzazione morfologica, si è rivelato vantaggioso anche in applicazioni sensoristiche e nell'industria dei semiconduttori. Per quanto riguarda la problematica inerente ai dispositivi sensoristici, le sonde dei microscopi, opportunamente funzionalizzate, hanno permesso di caratterizzare in diversi casi l'interazione di natura specifica fra strutture molecolari (ad esempio antigene-anticorpo). Per quanto riguarda invece l'industria microelettronica, dove il processo di scale-down sembrerebbe avere raggiunto i limiti imposti dall'attuale tecnologia (vedere le considerazioni generali nella sezione 4.7) le punte AFM-STM possono essere utilizzate per realizzare pattern di dimensioni caratteristiche inferiori a quelle raggiungibili con le tecnologie classiche, utilizzando l'STM come un litografo a fascio elettronico con bassa energia, e l'AFM come nanoindenter. Ovviamente per queste applicazioni particolari occorrono nuove punte STM e AFM dedicate, cioè appositamente concepite e sviluppate per la nanofabbricazione e la nanomanipolazione di componenti.
Esistono oggi diversi progetti in tutta Europa che prevedono l'utilizzo di sistemi a scansione STM ed AFM in ambito nanotecnologico, in particolare rivolti all'utilizzo di sonde opportunamente modificate con Fullerene, con le quali si pensa di poter tracciare sul substrato opportune geometrie e/o di manipolare singole molecole, in entrambi i casi con precisione nanometrica. L'applicazione di questa tecnologia nel campo dell'industria microelettronica prevede il taglio di piste metalliche (nanolitografia), precedentemente depositate su wafer di materiale semiconduttore. Nel caso di tagli pari alla lunghezza di diffusione elettronica nel silicio (circa 10 nm), polarizzando adeguatamente i due lati della pista tagliata si dovrebbero poter osservare fenomeni di trasporto elettronico ballistico, ovvero non soggetto a scattering di fononi (si veda "Introduzione alla Fisica dello Stato Solido"). Dalla letteratura risulta che sono state già realizzate prove di principio atte a dimostrare il controllo della tecnica di incisione o nanoindentazione via STM-AFM. Per osservare fenomeni di trasporto ballistico nel silicio a temperatura ambiente è però necessario produrre tagli ben definiti e di minima larghezza (decine di Ångström), per ottenere i quali occorrono sonde STM-AFM di elevata qualità non ancora presenti ad oggi.
Uno dei materiali sui quali ci si sta sempre più orientando per le sonde SPM del futuro, prodotte integralmente di esso o almeno funzionalizzate con esso (cioè con una parte terminale applicata alle punte standard), è appunto il Buckminster Fullerene, un materiale scoperto in tempi relativamente recenti (circa vent'anni fa), proveniente dallo spazio. Si tratta in pratica di grandi molecole di Carbonio, formate da un numero elevato di atomi (60-70) e aventi simmetria sferica, si parla di Buckyballs di C60.
Le proprietà del C60 sarebbero in grado di garantire all'apice della sonda:
  1. elevata durezza, fondamentale per la funzione di nanolitografia, per garantire sia tagli netti sul materiale da lavorare sia tempi di vita superiori alle punte convenzionali;
  2. elevata stabilità nel tempo (assenza di ossidazione quando esposta ad atmosfera). Inoltre:
  3. per le sue proprietà fisico-chimiche, il C60 si presta alla realizzazione di una gran varietà di nuovi materiali (copolimerizzazione);
  4. presenta alta conducibilità a temperatura ambiente (in funzione del drogaggio), la quale assicura bassi valori di rumore (nel caso di un utilizzo come sonda STM).
In aggiunta, un'altra caratteristica del C60 che potrà risultare particolarmente vantaggiosa per l'impiego in sonde AFM-STM è costituita dai recenti progressi nella sua sintesi in forma di "nanotubi": queste ultime sono strutture formate da un insieme ordinato di singole molecole di Fullerene, che possono essere sviluppate in forma di piccoli tubicini singola parete (Single Walled Nano Tubes, SWNTs) aventi diametro di circa 10 nm e lunghezza 50 volte tanto. Precise misure indicano che queste strutture autoassemblanti si comportano decisamente come fili monodimensionali, garantendo perciò una elevata direzionalità nella conduzione elettronica. Tale caratteristica potrà trovare applicazione nei sistemi STM.
Superpunte AFM di nanotubi sono già state sviluppate ma con diversa funzione, come sistemi "di sicurezza" per preservare l'integrità sia della punta sia del campione, nel seguente modo: il nanotubo è fissato all'estremità della punta standard con una colla flessibile, in maniera che la giunzione non sia rigida e, allorquando l'interazione (forza verticale) col campione supera una determinata soglia limite, il tubicino si defletta immediatamente e completamente (a 90°).


Fig. 4.30: I nanotubi di fullerene a), realizzati per la prima volta nel 1991, possono essere 10.000 volte più sottili di un capello e sono costituiti in pratica di "fogli" avvoltolati di esagoni di Carbonio, (una singola molecola di C60, qui non raffigurata, ricorda un pallone da calcio). Un'applicazione interessante potrebbe essere quella di produrre superpunte AFM/STM, come in b).


Oltre alle future sonde di Fullerene vale infine la pena di citare un altro tipo di punte STM, ancora poco diffuso per questioni di costi ma di qualità estremamente elevata: quello che le vede realizzate con tecniche di micromachining tramite FIB. Si tratta di un'altra nanotecnologia che utilizza l'emissione di campo di ioni (Field emitted Ionic Beam) focalizzati in un fascio ed utilizzati per "incidere" sulla materia, un'altra sorta di nanolitografia, come quella che si vorrebbe a sua volta realizzare in talune applicazioni per gli elettroni con l'STM. L'emissione di campo può avvenire sia per elettroni che per ioni. Il principio, ad esempio per gli elettroni, è fondamentalmente diverso che nell'emissione termoionica; in questa la sorgente viene riscaldata in modo da eccitare termicamente gli elettroni e far crescere la loro energia oltre alla barriera di energia che li tiene confinati dentro il materiale che ne diventa emettitore. Poi c'è un campo elettrico che li accelera e focalizza. Nell'emissione di campo la barriera di energia non viene superata dall'energia ceduta agli elettroni (o ioni che siano), cioè non vengono direttamente estratti da questa energia (qui ceduta da un campo elettrico), ma questa energia, inferiore, serve solo ad abbassare il gap da superare (vedi "Introduzione alla Fisica dello Stato Solido"); poi quello che avviene è un fenomeno di tunnel (proprio come nell'STM). Questo consente di avere un fascio di particelle cariche molto più intenso che con l'emissione termoionica. Inoltre, in realtà, si usa per ottenere fasci di ioni proprio perché questi, con la loro "pesantezza" rispetto agli elettroni, consentono di "incidere" più facilmente. Un campo di applicazione consolidato della tecnologia FIB è proprio la correzione di microcircuiti in cui si siano verificati errori in fase di progettazione: poiché buttare via un prototipo costa, lo si taglia e cuce, anche in profondità rispetto alla superficie, con questa tecnica. Analogamente viene impiegata nella rifinitura e nel controllo di qualità nella produzione di hard disk. Inoltre viene usata per "tagliare a fette" abbastanza sottili i campioni per il TEM, e per ultimo, come detto, per le punte STM.

4.6.3 Considerazioni finali

Guardando a tutti questi strumenti descritti nelle varie sezioni della presente opera, soprattutto con riferimento alle ultime, cioè 4.4: SPM "minori", 4.5: SPM "commerciali" e 4.6: SPM "futuri", per quanto non tutti siano importanti di per sé, si intuisce quale sia in assoluto la potenzialità dei metodi di microscopia a scansione SPM, non a caso detti anche SXM, dove X sta ad indicare la generica sonda (Probe in SPM): essa è appunto la possibilità di utilizzare in linea di principio qualsiasi oggetto o materiale che sia coinvolto dal campione in una qualunque interazione fisica misurabile. È possibile così, per le più disparate varietà di campioni, "cucire" loro addosso l'opportuno tipo di "punta" in grado di caratterizzarli, e questo consente un campo di sviluppo futuro pressoché illimitato.
Inoltre esiste un altro termine del discorso: oggi noi stiamo entrando, se non siamo già entrati, in una nuova era della scienza e della tecnologia, quella del nanometro, testimoniata dal fatto che questo prefisso (nano) è sempre più spesso nominato oggi, (si parla in generale di nanotecnologie, vedi sezione successiva e finale).
La storia della nostra ultima era tecnologica, oggi matura e all'apice della sua evoluzione (e forse anche un po' oltre!) è stata caratterizzata dalla dimensione del micrometro: 1 mm. Questo è ormai definitivamente considerato come uno standard onnipresente: giusto per fornire qualche esempio, costituisce il valore di precisione richiesto per le grandi realizzazioni di meccanica; mentre le singole fibre ottiche hanno anch'esse dimensioni trasversali del micron, e richiedono accuratezza sub-micrometrica nel loro posizionamento durante l'assemblaggio; i più piccoli elementi (caratteristiche) nei chip delle memorie ad alta densità sono prossimi al raggiungimento del limite di distanza dei 0,15 mm. La sfida di questa età del micron è stata la miniaturizzazione, basata sul fatto che la fisica che governa le proprietà degli oggetti e interazioni su scala del micron è praticamente la stessa che si ha nel mondo macroscopico, quindi il solo (si fa per dire) problema era il "rimpicciolimento" dei componenti (si pensi solo ai passi da giganti compiuti per i computer negli ultimi 30 anni). Ma essendo gli scienziati ed i tecnici spinti da un lato dalla richiesta costante da parte della società di densità di memorizzazione e velocità di calcolo sempre più elevate, e favoriti dall'altro lato dalla conoscenza sempre più profonda della relazione tra struttura molecolare e funzione dei sistemi biologici, è diventato sempre più evidente che la nuova sfida tecnologica è quella che ha spostato la propria attenzione sulle dimensioni del nanometro. In questa nuova età del nanometro alla quale ci stiamo preparando il nm non sarà soltanto la dimensione tipica della precisione di posizionamento degli oggetti, ma questi ultimi stessi saranno delle stesse dimensioni nanometriche, e non più micrometriche.



Fig. 4.31: confronto, basato sulle dimensioni fisiche in gioco, tra i campi d'azione di due diverse scienze e tecnologie oggetto di studi da parte delle moderne microscopie a scansione: la microelettronica (basata sulla Fisica dello Stato Solido) e la Chimica, che si sono ormai incontrate nel mondo dei microsistemi biologici.


L'età del nanometro aprirà un nuovo "ambiente" tecnologico: ad esempio possiamo immaginare proprietà di nuovi materiali realizzati "su misura" per determinate applicazioni sulla base dei loro componenti elementari (unità o sub-unità a livello molecolare), reazioni chimiche avviate dal portare piccole quantità di reagenti in stretta prossimità attraverso processi che potremmo chiamare "catalisi pilotata meccanicamente", in analogia alla funzione degli enzimi biologici. Ancora, la grande sfida dell'età del nanometro deriva dal fatto che su scala del nm gli oggetti di tali dimensioni appaiano come elementi individuali (con una composizione discreta) che richiedono nuove strategie per la loro visualizzazione e maneggiamento, sia come individui che come insiemi di individui, giacché vanno manipolati in quantità molto elevate. Storicamente, infatti, due approcci fondamentalmente diversi sono stati seguiti per raggiungere il mondo del nanometro, uno "dall'alto" ed uno "dal basso": gli ingegneri hanno adottato una strategia "top-down", cioè partendo da strutture e principi ben consolidati nel mondo macroscopico si sono avventurati nell'universo delle dimensioni del nm attraverso successive fasi di miniaturizzazione. I chimici, d'altro canto, hanno adottato naturalmente una strategia opposta, cioè "bottom-up", progredendo dalla sintesi di composti semplici costituiti da pochi atomi fino alle attuali macromolecole. Mentre gli ingegneri hanno sempre rivolto le proprie tecniche su un oggetto costituito da singoli elementi e i chimici al contrario su insiemi di grandi numeri (dell'ordine del numero di Avogadro, NA6x1023 molecole, pari a 1 mole). Tra questi due estremi trattati dall'uomo come distinti la natura sembra avere da sempre la capacità di maneggiare ben maggior disinvoltura sia nano-individui che insiemi "chimici", come testimoniato dai sistemi biologici. Infatti la maggior parte dei complessi nano-sistemi oggi funzionanti, cioè strutture simili a macchine di dimensioni « (molto minori di) 1 mm, sono di natura biologica, come i motori molecolari lineari e rotazionali o le pompe ioniche, tanto per citare alcuni esempi che presentano analogie nel mondo umano quotidiano ovvero macroscopico. È con la consapevolezza di queste caratteristiche che appare logico considerare i principi di lavoro che costituiscono il fondamento di quei nano-sistemi come linee guida per i nostri tentativi di creazione di nano-strutture di origine umana.
Questo matching tra chimica e microelettronica focalizzato sulla biologia promette sviluppi interessanti, che prevedono l'assemblaggio di elementi chimico-biologici come macromolecole organiche con caratteristiche funzionali, per formulare complesse unità funzionali da inserire in circuiti di natura bioelettronica. L'utilizzo di questi biochips rimarrà probabilmente poco efficace da un punto di vista pratico, e non in grado di rimpiazzare completamente i componenti sintetici, ma potrà generare nuove concezioni realizzative anche per questi elementi; è quanto sta di fatto già avvenendo, con le differenze del caso, per le reti neurali.
Sull'altro maggiore fronte di studi, quello che interessa l'AFM, la possibilità di indagare con questo strumento una notevole varietà di forze presenti a livello atomico e molecolare è destinata anch'essa a coinvolgere un numero sempre maggiore di ricercatori di branche diverse della scienza: fisici, chimici, biochimici, tribologisti e ingegneri di tecnologie nanometriche.
Possiamo quindi affermare senz'altro che la nascita delle moderne microscopie a scansione ha contribuito e continuerà a contribuire nei prossimi anni, nel pieno dell'era delle nanotecnologie, non solo ad un generico sviluppo scientifico e tecnologico, ma anche alla formazione di una nuova mentalità interdisciplinare che sarà necessaria allo scienziato degli anni duemila.

4.7 Progressi delle nanotecnologie

Si è già detto di come stiamo entrando nell'era delle nanotecnologie, il che è testimoniato dall'uso sempre più vasto del prefisso nano- nella terminologia comune, anche nel campo della microscopia (pensiamo alla Nanolitografia cui si è accennato ed alla Nanorobotica, tecnica che pure utilizza microscopi SPM allo scopo di spostare ed assemblare oggetti disposti sulla superficie del campione, ad esempio nano-particelle, nano-sfere, molecole, con finalità bottom-up). Vogliamo qui, concludendo, fornire una panoramica più ampia delle attuali nanotecnologie, nelle quali s'inserisce il mondo della microscopia SPM da noi affrontato nel dettaglio. Partiremo a questo scopo da un episodio storico.
Nel 1959 Richard Feynman, premio Nobel per la fisica per i suoi studi sulla elettrodinamica quantistica, fece uno strano seminario alla American Physical Society, dal titolo "There is room at the bottom". In quella conferenza ipotizzava lo studio della materia condensata su scala molecolare o atomica. C'è molto spazio, questo era il concetto, per i nostri studi sull'estremamente piccolo, in quelle regioni in cui il comportamento dei singoli atomi domina sulle proprietà collettive della materia. Feynman ipotizzava di poter "costruire" la materia condensata partendo da singoli atomi e assemblandoli con una qualche tecnica di nanomanipolazione, e questo altro non è che il procedimento bottom-up descritto nel precedente paragrafo! Ciò, proseguiva Feynman, avrebbe avuto un enorme impatto industriale. La miniaturizzazione dei computer, allora assai più ingombranti di oggi, fu il primo esempio di campo di applicazione che avrebbe trovato gran beneficio da queste nuove tecniche, che noi oggi chiamiamo nanotecnologie. Nel '91, circa 32 anni più tardi, Science e Nature dedicavano alle nanotecnologie dei numeri monografici: la predizione si stava avverando. In quel periodo all'inizio degli anni '90, nel decennio successivo all'invenzione dell'STM, che aveva permesso un'interazione diretta con singoli atomi, si avevano i primi congressi internazionali sulle nanotecnologie. Oggi l'idea di costruire una materia speciale, fatta a nostro piacimento come una casa composta di mattoni (procedimento bottom-up) non sembra più così fantasiosa. E questo grazie anche in parte, e si può prevedere in misura maggiore nel prossimo futuro, alle varie tecniche SPM avanzate, che sempre più consentono non solo la visualizzazione e in generale l'analisi dei campioni, ma anche l'intervento su questi per effettuarne modifiche a livello molecolare; ma ritorniamo alla breve panoramica sulle nanotecnologie in generale.
Il settore della microelettronica è senz'altro, come si accennava poc'anzi, quello in cui più immediatamente visibile è il vantaggio di poter dominare il mondo micro e nanoscopico. Un transistor occupava alla fine degli anni '50 uno spazio delle dimensioni dell'ordine del cm3; oggi è ridotto in volume di circa un fattore 1014. Attualmente i circuiti integrati vengono prodotti con tecniche di litografia ottica e gli elementi più piccoli che possono essere scritti con questo metodo sono dell'ordine della lunghezza d'onda della luce impiegata. L'uso di laser nell'UV (Ultra Violetto) spinto può ridurre la dimensione tipica fino a 1 decimo di micron. La realizzazione di componentistica di dimensioni tipiche di 70 nm è prevista per i primi anni del nuovo millennio. Sotto questi valori si può utilizzare la tecnica, assai più costosa, della litografia a raggi X o a fascio di elettroni. In quest'ultimo caso a generare le maschere per la deposizione dei semiconduttori non è più un fascio laser focalizzato ma appunto un sottilissimo pennello elettronico. In tal modo si hanno risoluzioni dell'ordine di qualche nm. Tuttavia non potremo spingerci avanti indefinitamente, in quanto per diversi motivi non siamo ormai molto lontani dal limite fisico dell'integrazione dei microcircuiti. Il primo è che per dimensioni dei componenti dell'ordine delle decine di nm e densità di centinaia di elementi per micron quadrato gli elettroni che fluiscono attraverso un componente o le sue interconnessioni cominciano ad avere probabilità non trascurabili di saltare per effetto tunnel sul componente adiacente, (come sempre in Fisica, lo stesso effetto può essere, a seconda delle circostanze e finalità, utile, STM, o dannoso, in questo caso!); senza contare i problemi di dissipazione del calore per effetto Joule, dovuti anche al fatto che il silicio non è un buon conduttore termico e pertanto con una tale densità d'integrazione di componenti il microcircuito rischia di bruciarsi. In microelettronica questo passaggio dell'attenzione da componentistica a Stato Solido a dispositivi a carattere molecolare individuale pone numerosi interrogativi: è necessario disporre di strumenti di investigazione adeguata delle proprietà della materia su questa scala del nm (alla quale i conduttori possono presentare proprietà elettriche e termomeccaniche sostanzialmente diverse da quelle fino ad oggi utilizzate nelle tecnologie di progettazione), ed eventualmente anche sviluppare metodologie di confinamento degli elementi di drogaggio (molecole di sostanze diverse dal grosso della materia di supporto) precise e affidabili sempre su scala nanometrica, cioè dotarsi di dispositivi di manipolazione controllata della materia di estrema precisione. Ma non solo la microelettronica si gioverebbe di questi strumenti. Un ulteriore campo di applicazione delle nanotecnologie è senz'altro quello della comprensione e dell'emulazione della struttura della materia biologica. Se pensiamo che qualunque cellula rappresenta un grande laboratorio nanotecnologico in cui vengono realizzati progetti complessi come l'assemblaggio di una struttura molecolare quale un enzima, secondo le precise indicazioni di un progetto "registrato" nella "memoria" del DNA, si tratta di un'opera di ingegneria nanotecnologica che i ricercatori vorrebbero cercare di emulare. In un micron cubo circa di DNA è immagazzinata tutta l'informazione relativa a costruzione ed evoluzione di un organismo superiore, di gran lunga il supporto di memoria a maggiore densità che si possa immaginare di produrre oggi in qualsiasi computer. Il mondo biologico offre poi altri esempi notevoli di possibili campi di ingegnerizzazione a livello nanometrico, da poter eventualmente monitorare ed emulare tramite opportuni strumenti: ad esempio il meccanismo di riconoscimento molecolare con il quale un anticorpo lega l'antigene o un enzima si lega al suo substrato. La riproduzione di sistemi specifici d'identificazione di simili interazioni (mediante opportune coppie "sonda-campione" applicate alla microscopia SPM) potrebbe costituire un nuovo tipo di biosensori utilizzabili ad esempio come dispositivi d'analisi per la rivelazione di sostanze nocive negli alimenti, oppure nella diagnostica medica.
Finora abbiamo fatto un discorso generale, poco focalizzato sulle nanotecnologie; ma risulta già chiaro dove volessimo arrivare: tra gli strumenti del futuro nel campo delle nanotecnologie ci saranno senz'altro sempre più i microscopi SPM. Infatti ad esempio nel campo della microelettronica lo strumento di microfabbricazione più efficace e diffuso fino ad oggi è stato quello della microlitografia. Questa si basa sulla incisione e rimozione di parte di uno strato di materiale (resist) depositato uniformemente sul substrato su cui si vuole operare, in modo che agisca da mascheratura per deposizioni successive di materiali diversi. Quindi un laser ultravioletto viene proiettato attraverso una maschera in parte trasparente che consente la degradazione del polimero fotosensibile solo in corrispondenza di determinate geometrie; questo materiale degradato viene infine rimosso in un bagno di sviluppo, e il supporto così opportunamente inciso viene esposto ad evaporazione del materiale da depositare, che va ad occupare le piste ed isole "scavate". Alla fine del processo, che può consistere di molti di questi step successivi, il polimero residuo viene rimosso con soluzioni diluite di acido fluoridrico e simili. La risoluzione dei pattern (cioè gli schemi) di microcircuiti ottenibile con questa tecnica è stata aumentata negli ultimi anni ricorrendo prima a laser nell'UV sempre più lontano e quindi a raggi X e fasci di elettroni, fino a raggiungere il limite imposto dalla nettezza della degradazione del materiale fotosensibile, che è granulare come tutti i polimeri, distribuito in cluster (isole o aggregazioni tondeggianti di più molecole). Completamente diverso è l'approccio offerto dagli strumenti SPM, che consentono teoricamente la fabbricazione di devices nanoelettronici a partire dai singoli componenti atomici o molecolari (bottom-up). In particolare l'AFM, benché generalmente di risoluzione inferiore all'STM, consente una maggiore versatilità, in quanto, oltre a non richiedere campioni conduttori, permette di ottenere un maggior numero di informazioni, in quanto utilizzabile in varie regioni di distanza punta-campione, dal contatto al non contatto più o meno prossimo, fornendo quindi, con opportuni sistemi di pilotaggio e software d'acquisizione dei dati, delle vere e proprie mappe di entità dell'interazione sonda-campione in corrispondenza delle varie distanze. Conoscendo quindi la fisica e la chimica della sonda e, almeno approssimativamente a priori, del campione, siamo in grado di interpretare le varie forze che compaiono nelle mappe a diverse distanze d'interazione, (si veda il discorso delle force slices). Ad esempio è stata misurata la forza d'interazione tra le due eliche del DNA e l'entità della deformazione di una singola molecola compressa spinta dalla punta di un SPM su una superficie atomica di rame. Quindi se la microlitografia tradizionale sembra una tecnologia consolidata e affidabile a livello industriale, e attualmente ancora insostituibile, sembra però ragionevole, visti gli ormai raggiunti limiti nello sviluppo di questa linea di strumenti, nella piena maturità, cercare di rivolgersi (o almeno cominciare a farlo) verso nuove tecniche con limiti di risoluzione più spinti e ancora da esplorare, come le microscopie SPM utilizzate come strumenti di nanolitografia e nanomanipolazione (spostamento) controllata. Questo anche in forza del fatto che i materiali stessi della microelettronica sembra si stiano evolvendo, allontanandosi sempre più dallo stato solido (cristalli di semiconduttori) per spostarsi verso il mondo dei materiali biologici o comunque almeno di natura organica. Il grande sviluppo di questi materiali ha portato negli ultimi anni alla realizzazione di polimeri conduttori organici con resistività dell'ordine del rame, e alla realizzazione di LED polimerici che sfruttano materiali di questo tipo depositati in forma di film sottili (ad esempio con tecnica Langmuir Blodgett) che presentano il vantaggio di un basso costo e di una grande flessibilità e robustezza, e possono quindi essere utilizzati vantaggiosamente (e presto lo saranno sempre più) nei display per l'elettronica. Ma dove entra la nanolavorazione ottenibile con gli SPM? A questo livello sembra che tali strumenti possano essere utili solo per caratterizzazione dei film sottili. Invece la grande potenzialità è quella di poter disporre in maniera ordinata singole molecole di materiali presenti in superficie sui campioni. Infatti, ad esempio per alcune molecole organiche basate su sistemi aromatici è stato dimostrato in anni recenti, tramite caratterizzazioni elettriche del tipo di collezione di curve caratteristiche corrente-tensione (I-V), che queste posseggono notevoli proprietà di rettificazione, ovvero lasciano passare corrente, se polarizzate in un verso e non nell'altro, (questo è dovuto evidentemente ad una direzionalità caratteristica delle molecole). Se pertanto tali molecole potessero essere impiegate singolarmente nella costruzione di un dispositivo rettificatore monomolecolare, si avrebbe in pratica un "diodo" delle dimensioni di singole molecole, raggiungendo così il limite fisico della massima integrazione teorica raggiungibile! Tutto sta naturalmente a posizionare queste singole molecole in maniera opportuna, secondo geometrie stabilite. E questa è la possibilità fornita appunto dagli strumenti SPM tramite la loro risoluzione atomica. È infatti già stato dimostrato che è possibile con STM e AFM assemblare singoli atomi adsorbiti sulla superficie in foggia di lettere e scritte di vario tipo, anche se attualmente si tratta di esempi ottenuti probabilmente con tentativi ripetuti e in tempi non proponibili per un impiego industriale, che dev'essere assolutamente riproducibile con precisione e rapido per questioni di efficacia di produzione.
Ma non solo problemi pratici di manipolazione limitano questa idea: se, in base agli esperimenti di caratterizzazione elettrica dei film di cui sopra, si dovessero banalmente riscalare le grandezze in gioco per valutare l'efficacia di rettificatore dell'ideale dispositivo a singola molecola ipotizzato, si vedrebbe che i valori di conduzione nel verso "buono" sarebbero comunque estremamente bassi, pari al passaggio di circa un elettrone da ogni 15 minuti a ogni secondo massimo. Tuttavia in quei film per ottenere la deposizione di monostrati molecolari ordinati è necessario legare alle molecole semiconduttrici del materiale in questione una coda alifatica, altamente isolante, mentre per una singola molecola questo accorgimento non sarebbe richiesto.
Notevoli risultati preliminari in questo campo di studi sono stati realizzati ai laboratori della divisione ricerca dell'IBM di Zurigo, nel gruppo che fa capo a Gimzewski. Costui ha ideato ad esempio un "amplificatore molecolare", esempio di quei device monomolecolari cui si accennava poc'anzi: questo dispositivo fa uso di una singola molecola di Fullerene ovvero C60, che ha l'aspetto di un microscopico (diametro 10 nm) pallone da calcio, che viene premuta con la punta di un STM (che in scala col "pallone" sarebbe una Torre Eiffel rovesciata) e cambia così conducibilità, consentendo un'amplificazione della corrente che attraversa il circuito pari a un fattore 10x.
Gimzewski ha anche dimostrato, d'altra parte, la possibilità di spostare in maniera controllata queste molecole, facendole scorrere, a spinta, con la punta STM, su un piano levigato a livello atomico di rame (nanorobotica): le regolarità del piano cristallino del rame sembrano fornire una vera e propria "scacchiera" su cui spostare come secondo delle guide queste molecole: il risultato è stato infatti definito "abaco molecolare". Questi ed altri risultati sono liberamente consultabili in linea alla pagina delle novità del sito Internet di IBM Ricerca di Zurigo. Altrove, in maniera complementare, è già stato dimostrato che è possibile automatizzare lo spostamento e la manipolazione di queste ed altre microunità di materia tramite punte SPM mediante software opportuni, in grado anche di essere pilotati all'interno di una rete e quindi anche da postazioni remote (disciplina detta nanorobotica, di cui uno dei maggiori gruppi mondiali fa capo ad Aristides Requicha). Il fatto che Gimzewski si sia focalizzato sullo studio del Fullerene non è casuale, visto il generale interesse suscitato da tale materiale, (vedi paragrafo 4.6.2).
L'"abaco molecolare" di Gimzewski potrebbe essere un prototipo di memoria di massa ad alta densità per computer; naturalmente però un solo SPM sarebbe troppo lento o limitato per "scrivere" (spostandole) ed "interrogare" (visualizzandole in immagini) mappe di memoria di questo tipo. È per tale motivo che in diversi laboratori, ad esempio alla Texas Instruments, stanno studiando la possibilità di realizzare schiere di piccoli AFM, addirittura microintegrati su singoli chip, da utilizzare simultaneamente. Per ottenere maggior velocità sono in sperimentazione strumenti privi di feedback, in cui l'informazione sulla deflessione della microleva viene data direttamente da una ceramica piezoresistiva attaccata alla levetta. Sono già operative schiere di 50 e fino a 100 AFM operanti in parallelo a pochi micron di distanza l'uno dall'altro, e i programmi di sviluppo prevedono di arrivare a 1000 strumenti entro pochi anni.
Detto dei vantaggi che potrebbero consentire le tecnologie SPM in microelettronica e nel campo dell'informatica, vogliamo ora dare uno sguardo al mondo della biomedicina. Si è già accennato alla possibilità di sviluppare biosensori specifici per determinate sostanze biochimiche, basati sul riconoscimento selettivo di alcune molecola da parte di enzimi o anticorpi. Le dimensioni degli attuali biosensori sono macroscopiche, dell'ordine del mm nel migliore dei casi. Se fosse possibile realizzare di microscopici, si potrebbe provvedere ad analisi rapide ed efficaci sia nel settore clinico (per la misura di parametri come glicemia, azotemia, tossine virus, etc.) che in quello alimentare (presenza di pesticidi o tossine legate alla putrefazione), semplicemente inserendo attraverso l'ago di una siringa nell'organismo umano nel primo caso, negli alimenti nel secondo, decine di questi sensori, consentendo un monitoraggio in tempo reale. Purtroppo ancora non sono completamente affidabili molti tra i sensori macroscopici, per cui la miniaturizzazione tramite ingegneria molecolare SPM è ampiamente di là da venire; tuttavia, a livello di ricerche di laboratorio, il campo sembra promettente. Come spesso poi i campi disciplinari della ricerca odierna si vanno a sovrapporre: ad esempio, per ritornare alle applicazioni della nanoingegneria SPM alla realizzazione di memorie per computer, un altro materiale promettente, oltre al C60, è proprio di natura biologica, trattandosi di una proteina: la batteriorodopsina. Questa presenta tre diverse conformazioni stabili, tra le quali può commutare facilmente in seguito a sollecitazioni ottiche, che possono anche essere utilizzate per "leggere" la situazione, (la molecola cioè presenta diversa fluorescenza a seconda della conformazione). Schiere di molecole proteiche di questo tipo potrebbero essere lette e scritte da fasci di fibre ottiche o da SNOM, ecco che ritorna ancora una volta la microscopia a scansione a sonda.
Questa breve rassegna a volo d'uccello sullo stato dell'arte delle tecniche di nanofabbricazione assistite dai microscopi a scansione potrebbe far pensare vicina la realizzazione del cosiddetto "biochip computer", vaticinata da tempo da alcuni esperti del settore. Non è tuttavia così, in quanto ribadiamo ancora una volta che il passo da singoli esperimenti eseguiti all'interno dei laboratori di ricerca ai prodotti industriali e commerciali, affidabili e convenienti in fase di produzione, che giungono nelle nostre case e nei nostri uffici dopo sperimentazione e testing, è ancora lungo e difficile da compiere. Tuttavia è certo che oggi possiamo vedere alle parole di Feynman riportate a inizio paragrafo non come a una semplice provocazione culturale di professore universitario affermato che non rischia più di tanto la faccia, ma come a una previsione estremamente lungimirante e niente affatto assurda. E intendiamo lasciare i nostri lettori con una considerazione pratica un po' amara: varrebbe forse la pena che, soprattutto in Italia dove la mentalità è ancora un po' arretrata in questo campo, le enormi istituzioni nazionali quali CNR, ENEA ed INFM e anche le maggiori aziende (FIAT, Telecom, etc.) includessero nei loro programmi di ricerca e sviluppo obbiettivi più direttamente collegati alla promozione dell'industria e quindi della società del futuro che ne deriverà (come ad esempio hanno fatto da qualche decennio la Philips e la IBM, coi risultati visti), piuttosto che limitarsi a più miopi (anche se rassicuranti) obiettivi a medio e breve termine della cosiddetta "ricerca applicata" (low end). Perché alla velocità d'evoluzione alla quale procede il mondo odierno, che, positiva o meno (il nostro discorso non vuole essere di natura morale) non si può contrastare, pena l'esclusione dal mercato sia commerciale sia "culturale", ciò la ricerca scientifica pura che un tempo sembrava così lontana dalla realtà è destinata ad entrare nella nostra vita quotidiana in tempi sempre più brevi. Occorre pertanto puntare, a mio modo di vedere, sempre più al front-end della ricerca avanzata, senza compromessi privi di vero senso e contenuto. Solo così la nostra società e i nostri giovani laureati potranno integrarsi veramente in un'Europa altamente competitiva.